Mathe-Basics für Data Scientists

Lineare Algebra, Statistik und Wahrscheinlichkeitsrechnung für die Datenanalyse

Thomas Nield

Diese Publikation zitieren

Thomas Nield, Mathe-Basics für Data Scientists (2023), O'Reilly Verlag, Heidelberg, ISBN: 9783960107644

2999
Accesses
15
Quotes

Beschreibung / Abstract


Frischen Sie Ihre Mathematik-Kenntnisse für Datenanalysen, Machine Learning und Neuronale Netze auf!



  • Dieses Buch richtet sich an angehende und fortgeschrittene Data Scientists sowie Programmierer*innen, die sich die mathematischen Grundlagen der Data Science aneignen wollen

  • Besonders gut nachvollziehbar durch minimale mathematische Fachterminologie, praxisnahe Beispiele und zahlreiche Abbildungen

  • Mit Übungen und Lösungen, um das Gelernte zu vertiefen

  • Für Studium und Beruf


Um als Data Scientist erfolgreich zu sein, müssen Sie über ein solides mathematisches Grundwissen verfügen. Dieses Buch bietet einen leicht verständlichen Überblick über die Mathematik, die Sie in der Data Science benötigen. Thomas Nield führt Sie Schritt für Schritt durch Bereiche wie Infinitesimalrechnung, Wahrscheinlichkeit, lineare Algebra, Statistik und Hypothesentests und zeigt Ihnen, wie diese Mathe-Basics beispielsweise in der linearen und logistischen Regression und in neuronalen Netzen eingesetzt werden. Zusätzlich erhalten Sie Einblicke in den aktuellen Stand der Data Science und erfahren, wie Sie dieses Wissen für Ihre Karriere als Data Scientist nutzen.



  • Verwenden Sie Python-Code und Bibliotheken wie SymPy, NumPy und scikit-learn, um grundlegende mathematische Konzepte wie Infinitesimalrechnung, lineare Algebra, Statistik und maschinelles Lernen zu erkunden

  • Verstehen Sie Techniken wie lineare und logistische Regression und neuronale Netze durch gut nachvollziehbare Erklärungen und ein Minimum an mathematischer Terminologie

  • Wenden Sie deskriptive Statistik und Hypothesentests auf einen Datensatz an, um p-Werte und statistische Signifikanz zu interpretieren

  • Manipulieren Sie Vektoren und Matrizen und führen Sie Matrixzerlegung durch

  • Vertiefen Sie Ihre Kenntnisse in Infinitesimal- und Wahrscheinlichkeitsrechnung, Statistik und linearer Algebra und wenden Sie sie auf Regressionsmodelle einschließlich neuronaler Netze an

  • Erfahren Sie, wie Sie Ihre Kenntnisse und Fähigkeiten in der Datenanalyse optimieren und gängige Fehler vermeiden, um auf dem Data-Science-Arbeitsmarkt zu überzeugen


Beschreibung

Thomas Nield ist der Gründer der Nield Consulting Group sowie Dozent bei O'Reilly Media und an der University of Southern California. Er hat Freude daran, technische Inhalte für diejenigen verständlich und gut nutzbar zu machen, die mit ihnen nicht vertraut sind oder sich von ihnen abgeschreckt fühlen. Thomas Nield unterrichtet regelmäßig Kurse zu Datenanalyse, Machine Learning, mathematischer Optimierung, KI-Systemsicherheit und praktischer künstlicher Intelligenz. Er ist Autor von zwei Büchern, Getting Started with SQL (O'Reilly) und Learning RxJava (Packt). Außerdem ist er der Gründer und Erfinder von Yawman Flight, einem Unternehmen, das Handsteuerungen für Flugsimulatoren und unbemannte Luftfahrzeuge entwickelt.

Inhaltsverzeichnis

  • BEGINN
  • Titel
  • Impressum
  • Inhalt
  • Einführung
  • Konventionen in diesem Buch
  • Codebeispiele
  • Danksagungen
  • Kapitel 1: Grundlegende Mathematik und Infinitesimalrechnung
  • Zahlentheorie
  • Reihenfolge der Operationen
  • Variablen
  • Funktionen
  • Summationen
  • Potenzen
  • Logarithmen
  • Eulersche Zahl und natürliche Logarithmen
  • Grenzwerte
  • Ableitungen
  • Integrale
  • Zum Schluss
  • Übungen
  • Kapitel 2: Wahrscheinlichkeit
  • Wahrscheinlichkeit verstehen
  • Wahrscheinlichkeitsmathematik
  • Binomialverteilung
  • Beta-Verteilung
  • Zum Schluss
  • Übungen
  • Kapitel 3: Deskriptive und inferenzielle Statistik
  • Was sind Daten?
  • Deskriptive versus inferenzielle Statistik
  • Grundgesamtheiten, Stichproben und Verzerrungen
  • Deskriptive Statistik
  • Inferenzielle Statistik
  • Konfidenzintervalle
  • Was sind p-Werte?
  • Die t-Verteilung: mit kleinen Stichproben umgehen
  • Big Data und der Zielscheibenfehler
  • Zum Schluss
  • Übungen
  • Kapitel 4: Lineare Algebra
  • Was ist ein Vektor?
  • Lineare Transformationen
  • Matrixmultiplikation
  • Determinanten
  • Spezielle Matrixtypen
  • Gleichungssysteme und inverse Matrizen
  • Eigenvektoren und Eigenwerte
  • Zum Schluss
  • Übungen
  • Kapitel 5: Lineare Regression
  • Eine einfache lineare Regression
  • Residuen und Fehlerquadrate
  • Die beste Anpassungsgerade suchen
  • Überanpassung und Varianz
  • Stochastischer Gradientenabstieg
  • Der Korrelationskoeffizient
  • Statistische Signifikanz
  • Bestimmtheitsmaß
  • Standardfehler der Schätzung
  • Vorhersageintervalle
  • Aufteilung in Trainings- und Testdaten
  • Multiple lineare Regression
  • Zum Schluss
  • Übungen
  • Kapitel 6: Logistische Regression und Klassifikation
  • Logistische Regression verstehen
  • Eine logistische Regression durchführen
  • Multivariable logistische Regression
  • Das Wesen der Log-Odds
  • R-Quadrat
  • p-Werte
  • Aufteilung in Trainings- und Testdaten
  • Wahrheitsmatrizen
  • Der Satz von Bayes und Klassifizierung
  • ROC-Kurve/Fläche unter der Kurve
  • Klassenungleichgewicht
  • Zum Schluss
  • Übungen
  • Kapitel 7: Neuronale Netze
  • Wann man neuronale Netze und Deep Learning verwendet
  • Ein einfaches neuronales Netz
  • Backpropagation
  • Die Bibliothek scikit-learn
  • Grenzen von neuronalen Netzen und Deep Learning
  • Zum Schluss
  • Übung
  • Kapitel 8: Karriereberatung und der Weg in die Zukunft
  • Data Science neu definiert
  • Data Science ein geschichtlicher Abriss
  • Ihr eigenes Profil schärfen
  • Worauf Sie bei Data-Science-Jobs achten sollten
  • Existiert Ihr Traumjob nicht?
  • Wie geht es weiter?
  • Zum Schluss
  • Amhang A: Ergänzende Themen
  • LaTeX-Rendering mit SymPy
  • Binomialverteilung von Grund auf
  • Beta-Verteilung von Grund auf
  • Den Satz von Bayes ableiten
  • CDF und inverse CDF von Grund auf
  • Ereigniswahrscheinlichkeit mit e im Zeitverlauf vorhersagen
  • Bergsteigeralgorithmus und lineare Regression
  • Bergsteigeralgorithmus und logistische Regression
  • Eine kurze Einführung in lineare Optimierung
  • MNIST-Klassifizierer mit scikit-learn
  • Anhang B: Lösungen zu den Übungen
  • Kapitel 1
  • Kapitel 2
  • Kapitel 3
  • Kapitel 4
  • Kapitel 5
  • Kapitel 6
  • Kapitel 7
  • Index
  • Über den Autor
  • Kolophon

Ähnliche Titel

    Mehr von diesem Autor