Machine Learning kompakt

Alles, was Sie wissen müssen

Andriy Burkov

Cite this publication as

Andriy Burkov, Machine Learning kompakt (2019), mitp-Verlag, Frechen, ISBN: 9783958459960

10410
accesses
267
quotes

Descripción / Abstract

Alles, was Sie über Machine Learning wissen müssen, auf nur 200 Seiten
Von Support Vector Machines über Gradient Boosting und tiefe neuronale Netze bis hin zu unüberwachten Lernmethoden
Zahlreiche Tipps und Empfehlungen für den praktischen Einsatz

Sie möchten Machine Learning verstehen und dafür nicht unendlich viel Zeit aufwenden und Hunderte von Seiten lesen? Dann ist dieses Buch das richtige für Sie.
Auf 200 Seiten bringt Andriy Burkov die wichtigsten Begriffe, Konzepte und Algorithmen des Machine Learnings auf den Punkt. Dabei vermittelt er nicht nur alle notwendigen theoretischen Grundlagen, sondern geht auch auf die praktische Anwendung der einzelnen Verfahren ein, ohne dabei die zugrundeliegenden mathematischen Gleichungen außer Acht zu lassen.
Dieses Buch bietet einen leicht zugänglichen, programmiersprachenunabhängigen und trotz seiner Kürze umfassenden Einstieg ins Machine Learning.

Aus dem Inhalt:

Notation und mathematische Grundlagen
Überwachtes, teilüberwachtes und unüberwachtes Lernen
Grundlegende Lernalgorithmen:
Lineare und logistische Regression
Entscheidungsbäume
Support Vector Machines
k-Nearest-Neighbors
Optimierung mittels Gradientenabstieg
Merkmalserstellung und Handhabung fehlender Merkmale
Auswahl des passenden Lernalgorithmus
Bias, Varianz und das Problem der Unter- und Überanpassung
Regularisierung, Bewertung eines Modells und Abstimmung der Hyperparameter
Deep Learning mit CNNs, RNNs und Autoencodern
Multi-Class-, One-Class- und Multi-Label-Klassifikation
Ensemble Learning
Clustering, Dimensionsreduktion und Erkennen von Ausreißern
Selbstüberwachtes Lernen
Wort-Embeddings, One-Shot und Zero-Shot Learning


Stimmen zum Buch:

»Burkov hat sich der äußerst nützlichen, aber unglaublich schwierigen Aufgabe angenommen, fast das gesamte Machine Learning auf 200 Seiten zusammenzufassen. Die Auswahl der Themen aus Theorie und Praxis ist gelungen und wird sich für Praktiker als nützlich erweisen. Das Buch bietet Lesern eine solide Einführung in das Fachgebiet.«
†” Peter Norvig, Forschungsdirektor bei Google

»Der Umfang der Themen, die das Buch auf 200 Seiten behandelt, ist verblüffend. […] Wie der Autor die Kernkonzepte mit einigen wenigen Worten erklärt, gefällt mir ausnehmend gut. Das Buch wird nicht nur für Einsteiger sehr nützlich sein, sondern auch für alte Hasen, die von einer so breiten Sicht auf das Fachgebiet nur profitieren können.«
†” Aurélien Géron, Senior Artificial Intelligence Engineer

»Ich wünschte, es hätte ein solches Buch gegeben, als ich mich als Student der Statistik mit Machine Learning beschäftigt habe.«
†” Chao Han, Vizepräsident, Leiter Forschung und Entwicklung bei Lucidworks

Descripción

Andriy Burkov ist Experte für Machine Learning mit dem Schwerpunkt auf Natural Language Processing. 2010 hat er zum Thema Künstliche Intelligenz promoviert und leitet seit 7 Jahren ein Team von Machine-Learning-Entwicklern bei der Firma Gartner, die sich mit multilingualer Textextraktion und Normalisierungsverfahren befasst. Dabei kommen sowohl Shallow- als auch Deep-Learning-Technologien zum Einsatz. Er lebt mit seiner Familie in Quebec City.

Índice

  • Cover
  • Titel
  • Impressum
  • Vorwort zur deutschen Ausgabe
  • Vorwort
  • Einleitung
  • Wer sollte dieses Buch lesen?
  • Verwendung des Buchs
  • Einführung
  • Was ist Machine Learning?
  • Arten des Lernens
  • Funktionsweise des überwachten Lernens
  • Weshalb das Modell mit neuen Daten umgehen kann
  • Notation und Definitionen
  • Notation
  • Zufallsvariable
  • Erwartungstreue Schätzer
  • Satz von Bayes
  • Parameterschätzung
  • Parameter und Hyperparameter
  • Klassifikation und Regression
  • Modellbasiertes und instanzbasiertes Lernen
  • Shallow Learning und Deep Learning
  • Grundlegende Algorithmen
  • Lineare Regression
  • Logistische Regression
  • Entscheidungsbaum-Lernen
  • Support Vector Machine
  • k-Nearest-Neighbors
  • Aufbau eines Lernalgorithmus
  • Bausteine eines Lernalgorithmus
  • Gradientenabstieg
  • Wie Machine-Learning-Entwickler vorgehen
  • Besonderheiten von Lernalgorithmen
  • Grundlegende Techniken
  • Merkmalserstellung
  • Auswahl von Lernalgorithmen
  • Drei Mengen
  • Unteranpassung und Überanpassung
  • Regularisierung
  • Beurteilung der Leistung eines Modells
  • Abstimmung der Hyperparameter
  • Neuronale Netze und Deep Learning
  • Neuronale Netze
  • Deep Learning
  • Aufgaben und Lösungen
  • Kernel-Regression
  • Multi-Class-Klassifikation
  • One-Class-Klassifikation
  • Multi-Label-Klassifikation
  • Ensemble Learning
  • Kennzeichnung von Sequenzen erlernen
  • Sequenz-zu-Sequenz-Lernen
  • Aktives Lernen
  • Teilüberwachtes Lernen
  • One-Shot Learning
  • Zero-Shot Learning
  • Fortgeschrittene Techniken
  • Handhabung unausgewogener Datenmengen
  • Modelle kombinieren
  • Trainieren neuronaler Netze
  • Erweiterte Regularisierung
  • Handhabung mehrerer Eingaben
  • Handhabung mehrerer Ausgaben
  • Transfer Learning
  • Effizienz von Algorithmen
  • Unüberwachtes Lernen
  • Dichteschätzung
  • Clustering
  • Dimensionsreduktion
  • Erkennung von Ausreißern
  • Weitere Formen des Lernens
  • Metric Learning
  • Ranking
  • Empfehlungen
  • Selbstüberwachtes Lernen: Wort-Embeddings
  • Schlussbemerkungen
  • Was nicht behandelt wurde
  • Danksagungen
  • Index

Otros documentos de esta serie

    Títulos relacionados

      Otros títulos del mismo autor