Neuronale Netze - Grundlagen

Mit Beispielprogrammen in Java

Thomas Kaffka

Cite this publication as

Thomas Kaffka, Neuronale Netze - Grundlagen (2017), mitp-Verlag, Frechen, ISBN: 9783958456082

3292
accesses
28
quotes

Description / Abstract

Von den ersten Modellen bis zum Backpropagation-Netz
Allgemeinverständliche Erläuterungen mit vielen Praxis- und Anwendungsbeispielen
Zahlreiche Programme zum Ausprobieren, Ausführen und Trainieren Neuronaler Netze mit Beispieldaten
Für Programmierer: Vollständige Programmierung eines Backpropagation-Netzes zur Passworterkennung (in Java)



Dieses Buch ist eine grundlegende Einführung in die Entwicklung und Funktionsweise Neuronaler Netze. Sie lernen verschiedene Modelle kennen sowie alle Elemente, die für die Funktionalität Neuronaler Netze von Bedeutung sind. So werden Sie im Detail verstehen, wie diese arbeiten.
Praxisansatz des Buches:

Alle vorgestellten Netze werden beispielhaft anschaulich durchgerechnet. So können Sie nachvollziehen, wie ein Neuronales Netz funktioniert und arbeitet.
Außerdem liefert der Autor zusätzlich zum Buch selbst erstellte Programme, mit denen Sie am PC experimentieren können, indem Sie Beispieldaten eingeben und die jeweiligen Eigenschaften der unterschiedlichen Netze praktisch ausprobieren sowie diese trainieren und ausführen können.

Kaffka beschreibt zunächst die frühesten Modelle Neuronaler Netze sowie die Hebbsche Formel und das von Rosenblatt entwickelte Modell des Perzeptrons. Daraufhin geht er auf die Mustererkennung mit einem Hopfield-Netz ein und erläutert die Grundlagen eines einfachen und eines bidirektionalen Assoziativspeichers.
Schließlich behandelt Kaffka das aktuelle Modell des Backpropagation-Netzes. Sie lernen im Detail, wie ein solches Neuronales Netz funktioniert – von der Netztopologie über die Transferfunktion bis zur Lernformel zum Trainieren eines Netzes.
Darauf aufbauend stellt der Autor verschiedene Beispiele und Anwendungen für Neuronale Netze vor. Hier diskutiert er zusätzlich, wie diese im Rahmen der Regressionsanalyse eingesetzt werden können. Zudem wird gezeigt, dass Neuronale Netze auch drei- oder mehrdimensionale Funktionen erlernen können.
Ein Ausblick zu Expertensystemen im Vergleich zu Neuronalen Netzen rundet die Einführung ab.

Zusatznutzen für Programmierer:

Programmierer, die selber ein neuronales Netz programmieren wollen, finden ein ausführliches Kapitel, in dem ein Backpropagation-Netz vollständig in Java programmiert wird.
Für Programmierer wird der Java-Code aller im Buch verwendeten Programme erläutert.


Downloads zum Buch:

Alle Programme der im Buch beschriebenen Neuronalen Netze zum Ausprobieren
Für Programmierer: Der Quellcode eines vollständigen Backpropagation-Netzes sowie aller im Buch verwendeten Programme


Aus dem Inhalt:

Historische Ansätze:
Hebbsche Formel, Perzeptron, Hopfield-Netz
Neuronale Netze mit der Backpropagation-Technologie
Gewichtsmatix, Training und Lernkurve
Muster-/Bilderkennung
Bidirektionaler Assoziativspeicher
Netztopologie mit bis zu 3 Schichten
Regressionsanalyse
Mehrdimensionale Funktionen
Expertensysteme
Vollständige Programmierung eines Backpropagation-Netzes zur Passworterkennung

Description

Thomas Kaffka hat als Softwareingenieur sowie Projektleiter in Softwarehäusern und Wirtschaftsprüfungs- und Beratungsgesellschaften gearbeitet. Mit den Instrumenten der Künstlichen Intelligenzforschung beschäftigt er sich seit seinem Studium und hat im Rahmen seines Berufslebens auch solche Systeme eingesetzt.

Table of content

  • Cover
  • Titel
  • Impressum
  • Inhaltsverzeichnis
  • Prolog
  • Einleitung
  • Kapitel 1: Neuronale Netze und das Gehirn
  • 1.1 Was sind Neuronale Netze?
  • 1.2 Das Gehirn als Vorbild
  • Kapitel 2: Die Simulation des Gehirns
  • 2.1 Die ersten Versuche
  • 2.2 Die Hebbsche Formel
  • 2.3 Das Perzeptron
  • Kapitel 3: Mustererkennung durch ein Hopfield-Netz
  • 3.1 Der Assoziativspeicher
  • Kapitel 4: Der bidirektionale Assoziativspeicher
  • 4.1 Verteilter Assoziativspeicher
  • Kapitel 5: Das Backpropagation-Netz
  • 5.1 Netztopologie
  • 5.2 Die Transferfunktion
  • 5.3 Die Lernformel
  • 5.4 Das Backpropagation-Netz auf dem Papier
  • Kapitel 6: Vorstellung eines Programms zum Ausführen Neuronaler Netze
  • 6.1 Allgemeine Erläuterungen des Programms NetAndDecision
  • 6.2 Verwalten der Projekte
  • 6.3 Die Gewichtsmatrix
  • 6.4 Beispiele erfassen
  • 6.5 Der Beispiel-Generator
  • 6.6 Das Training des Netzes
  • 6.7 Die Ausführung des Netzes
  • 6.8 Die Lernkurve
  • 6.9 Die Grafik
  • Kapitel 7: Beispiele für Neuronale Netze
  • 7.1 Ermittlung der Wurfweite eines Steins
  • 7.2 Kreditvergabe Entscheidung
  • 7.3 Unterstützung der Kaufentscheidung für einen PC
  • Kapitel 8: Regressionsanalyse mit einem Neuronalen Netz
  • 8.1 Die Chartanalyse mit einem Neuronalen Netz
  • 8.2 Die Regressionsanalyse
  • 8.3 Mehrdimensionale Funktionen
  • Kapitel 9: Expertensysteme
  • 9.1 Das Erheben von Wissen
  • 9.2 Aufbau eines Expertensystems
  • 9.3 Vorstellung eines Programms zum Ausführen von Expertensystemen
  • 9.4 Regelbasis zur Auswahl von statistischen Prognoseverfahren
  • 9.5 Regelbasis zur Unterstützung der Kaufentscheidung für einen PC
  • Kapitel 10: Ein Backpropagation-Netz programmieren
  • 10.1 Erfassung von Passwort-Mustern
  • 10.2 Ein Neuronales Netz zur Erkennung von Passwort-Mustern
  • 10.3 Die Programmierung des Neuronalen Netzes
  • 10.4 Die Programmierung der Backpropagation-Technologie
  • Kapitel 11: Ausblick
  • Anhang A: Anhang
  • A.1 Die Beispielprogramme
  • A.2 Installation der Beispielprogramme
  • A.3 Die verwendete Datenbanktechnologie
  • Anhang B: Dokumentierter Quelltext der Programme
  • B.1 Das Programm Perzeptron
  • B.2 Das Programm HopfieldNet
  • B.3 Das Programm AssociativeMemory
  • B.4 Das Programm AssociativeMemoryPicture
  • Stichwortverzeichnis

More of this series

    Related titles

      More of this author(s)