Deep Learning Kochbuch

Praxisrezepte für einen schnellen Einstieg

Douwe Osinga

Diese Publikation zitieren

Douwe Osinga, Deep Learning Kochbuch (2019), O'Reilly Verlag, Heidelberg, ISBN: 9783960102649

8425
Accesses
56
Quotes

Beschreibung / Abstract

Lassen Sie sich von Deep Learning nicht abschrecken! Dank Frameworks wie Keras und TensorFlow ist der schnelle Einstieg in die Entwicklung von Deep-Learning-Anwendungen nun auch für Softwareentwickler ohne umfassende Machine-Learning-Kenntnisse möglich. Mit den Rezepten aus diesem Buch lernen Sie, typische Aufgabenstellungen des Deep Learning zu lösen, wie etwa die Klassifizierung und Generierung von Texten, Bildern und Musik.
Jedes Kapitel behandelt ein Projekt, wie z.B. das Trainieren eines Empfehlungssystems für Musik. Schritt für Schritt wird gezeigt, wie das jeweilige Projekt umgesetzt wird. Darüber hinaus beschreibt der Autor Douwe Osinga zahlreiche Techniken, die Ihnen helfen, wenn Sie einmal nicht mehr weiterwissen. Alle Codebeispiele sind in Python geschrieben und auf GitHub als Python-Notebooks frei verfügbar.
Aus dem Inhalt:

- Entwickeln Sie Deep-Learning-Anwendungen, die Nutzern einen echten Mehrwert bieten
- Berechnen Sie Ähnlichkeiten von Texten mithilfe von Word-Embeddings
- Erstellen Sie ein Empfehlungssystem für Filme basierend auf Wikipedia-Links
- Visualisieren Sie die internen Vorgänge einer künstlichen Intelligenz, um nachvollziehen zu können, wie diese arbeitet
- Entwickeln Sie ein Modell, das passende Emojis für Textpassagen vorschlägt
- Realisieren Sie einen Reverse-Image-Search-Dienst mithilfe von vortrainierten Netzwerken
- Vergleichen Sie, wie Generative Adversarial Networks, Autoencoder und LSTM-Netzwerke Icons erzeugen
- Trainieren Sie ein Klassifikationsmodell für Musikstile und lassen Sie es Musikstücke dementsprechend zuordnen

Beschreibung

Douwe Osinga ist ein erfahrener Softwareentwickler, früher bei Google, Globetrotter und Gründer von drei Startups. Auf seiner beliebten Website für Software-Projekte beschäftigt er sich neben anderen spannenden Themen auch mit dem Machine Learning: douweosinga.com/projects

Inhaltsverzeichnis

  • BEGINN
  • Inhalt
  • Vorwort
  • Kapitel 1: Werkzeuge und Techniken
  • 1.1 Arten neuronaler Netze
  • 1.2 Datenbeschaffung
  • 1.3 Vorverarbeitung von Daten
  • Kapitel 2: Fehlerbehebung
  • 2.1 Probleme bemerken
  • 2.2 Laufzeitfehler beheben
  • 2.3 Zwischenergebnisse überprüfen
  • 2.4 Wählen der richtigen Aktivierungsfunktion (für die letzte Schicht)
  • 2.5 Regularisierung und Drop-out
  • 2.6 Netzwerkstruktur, Batch-Größe und Lernrate
  • Kapitel 3: Die Ähnlichkeit von Texten mithilfe von Worteinbettungen berechnen
  • 3.1 Wortähnlichkeiten mithilfe vortrainierter Worteinbettungen finden
  • 3.2 Word2vec-Mathematik
  • 3.3 Worteinbettungen visualisieren
  • 3.4 Objektklassen in Einbettungen finden
  • 3.5 Semantische Abstände innerhalb einer Klasse berechnen
  • 3.6 Länderdaten auf einer Landkarte visualisieren
  • Kapitel 4: Ein Empfehlungssystem anhand ausgehender Wikipedia-Links erstellen
  • 4.1 Sammeln der Daten
  • 4.2 Trainieren von Filmeinbettungen
  • 4.3 Ein Filmempfehlungssystem erstellen
  • 4.4 Vorhersagen einfacher Filmmerkmale
  • Kapitel 5: Text im Stil eines Beispieltexts generieren
  • 5.1 Den Text von gemeinfreien Büchern beschaffen
  • 5.2 Texte im Stil von Shakespeare generieren
  • 5.3 Code mit RNNs erzeugen
  • 5.4 Steuerung der Temperatur des Outputs
  • 5.5 Visualisierung der Aktivierungen eines rekurrenten Netzwerks
  • Kapitel 6: Übereinstimmende Fragen
  • 6.1 Daten aus Stack Exchange beschaffen
  • 6.2 Erkundung der Daten mit Pandas
  • 6.3 Textkodierung in Keras
  • 6.4 Ein Frage-Antwort-Modell entwickeln
  • 6.5 Training eines Modells mit Pandas
  • 6.6 Überprüfung von Gemeinsamkeiten
  • Kapitel 7: Emojis vorschlagen
  • 7.1 Einen einfachen Stimmungsklassifikator entwickeln
  • 7.2 Inspizieren eines einfachen Klassifikators
  • 7.3 Ein Konvolutionsnetz zur Stimmungsanalyse verwenden
  • 7.4 Twitter-Daten sammeln
  • 7.5 Ein simples Vorhersagemodell für Emojis
  • 7.6 Drop-out und variierende Fenstergröße
  • 7.7 Ein wortbasiertes Modell erstellen
  • 7.8 Eigene Einbettungen erzeugen
  • 7.9 Ein rekurrentes neuronales Netzwerk zur Klassifikation verwenden
  • 7.10 Übereinstimmung visualisieren
  • 7.11 Modelle miteinander kombinieren
  • Kapitel 8: Sequenz-zu-Sequenz-Mapping
  • 8.1 Trainieren eines einfachen Sequenz-zu-Sequenz-Modells
  • 8.2 Dialoge aus Texten extrahieren
  • 8.3 Einen frei verfügbaren Wortschatz handhaben
  • 8.4 Einen seq2seq-Chatbot trainieren
  • Kapitel 9: Ein vortrainiertes Netzwerk zur Bilderkennung verwenden
  • 9.1 Ein vortrainiertes Netzwerk laden
  • 9.2 Vorverarbeitung der Bilder
  • 9.3 Vorhersagen des Bildinhalts (Inferenz)
  • 9.4 Einen gelabelten Bilddatensatz mit der Flickr-API sammeln
  • 9.5 Einen Hund-Katze-Klassifikator erstellen
  • 9.6 Suchergebnisse verbessern
  • 9.7 Trainieren vortrainierter Netzwerke zur Bilderkennung
  • Kapitel 10: Eine Reverse-Image-Suchmaschine erstellen
  • 10.1 Zugriff auf Bilder von Wikipedia
  • 10.2 Projektion von Bildern in einen N-dimensionalen Raum
  • 10.3 Nächste Nachbarn in hochdimensionalen Räumen finden
  • 10.4 Lokale Nachbarschaften in Einbettungen erkunden
  • Kapitel 11: Mehrere Bildinhalte erkennen
  • 11.1 Erkennen mehrerer Bildinhalte mithilfe eines vortrainierten Klassifikators
  • 11.2 Bilderkennung mithilfe eines Faster RCNN
  • 11.3 Eigene Bilder in einem Faster RCNN verwenden
  • Kapitel 12: Mit Bildstilen arbeiten
  • 12.1 Aktivierungen eines CNN visualisieren
  • 12.2 Oktaven und Vergrößerung
  • 12.3 Veranschaulichen, was ein neuronales Netzwerk in etwa wahrnimmt
  • 12.4 Den Stil eines Bilds erfassen
  • 12.5 Verbessern der Verlustfunktion zur Erhöhung der Bildkohärenz
  • 12.6 Einen Stil auf ein anderes Bild übertragen
  • 12.7 Stilinterpolation
  • Kapitel 13: Bilder mit Autoencodern erzeugen
  • 13.1 Zeichnungen aus Google Quick Draw importieren
  • 13.2 Einen Autoencoder für Bilder erstellen
  • 13.3 Visualisierung der Ergebnisse von Autoencodern
  • 13.4 Sampling von Bildern aus einer korrekten Verteilung
  • 13.5 Den latenten Raum eines Variational Autoencoders visualisieren
  • 13.6 Conditional Variational Autoencoder
  • Kapitel 14: Piktogramme mithilfe von neuronalen Netzwerken erzeugen
  • 14.1 Piktogramme zum Trainieren beschaffen
  • 14.2 Piktogramme in eine Tensor-Darstellung umwandeln
  • 14.3 Piktogramme mithilfe eines Variational Autoencoders erzeugen
  • 14.4 Datenanreicherung zur Verbesserung der Leistung des Autoencoders
  • 14.5 Ein Generative Adversarial Network aufbauen
  • 14.6 Generative Adversarial Networks trainieren
  • 14.7 Mit einem GAN erzeugte Piktogramme anzeigen
  • 14.8 Piktogramme als Zeichenanleitung kodieren
  • 14.9 Trainieren eines RNN zum Zeichnen von Piktogrammen
  • 14.10 Piktogramme mithilfe eines RNN erzeugen
  • Kapitel 15: Musik und Deep Learning
  • 15.1 Einen Trainingsdatensatz zur Musikklassifikation erstellen
  • 15.2 Einen Musikgenre-Detektor trainieren
  • 15.3 Visualisierung von Klassifikationsirrtümern
  • 15.4 Indexierung vorhandener Musik
  • 15.5 Die Spotify-API einrichten
  • 15.6 Playlisten und Musikstücke von Spotify sammeln
  • 15.7 Ein Musikempfehlungssystem trainieren
  • 15.8 Musikstücke empfehlen mithilfe eines Word2vec-Modells
  • Kapitel 16: Machine-Learning-Systeme in Produktion bringen
  • 16.1 Ein Nächste-Nachbarn-Klassifikationsmodell für Einbettungen mit scikit-learn verwenden
  • 16.2 Postgres zum Speichern von Einbettungen verwenden
  • 16.3 Einpflegen und Abfragen von in Postgres gespeicherten Einbettungen
  • 16.4 Hochdimensionale Modelle in Postgres speichern
  • 16.5 Microservices in Python erstellen
  • 16.6 Keras-Modelle als Microservice bereitstellen
  • 16.7 Einen Microservice aus einem Web-Framework aufrufen
  • 16.8 seq2seq-Modelle in TensorFlow
  • 16.9 Deep-Learning-Modelle im Browser ausführen
  • 16.10 Ein Keras-Modell mit TensorFlow Serving ausführen
  • 16.11 Ein Keras-Modell unter iOS verwenden
  • Index
  • Über den Autor
  • Über die Übersetzer
  • Kolophon

Mehr von dieser Serie

    Ähnliche Titel

      Mehr von diesem Autor