Grundlagen 📐FunktionenKomponenten von FunktionenGrenzwerteVektoranalysisIntegrierenMatrizenEigenwerte und EigenvektorenDeterminanteAnalysisTopologie, StetigkeitOffene MengenStetigkeitPartielle AbleitungenPartielle DifferenzierbarkeitRichtungsableitung 👉-FunktionenSatz von Schwarz 🃏DifferentialoperatorenGradientDivergenzRotation 🚨Laplace-OperatorHesse-MatrixCauchy-Schwarz UngleichungAbleitungen vektorwertiger Funktionen 🏹Jacobi-MatrixDifferenzierbarkeitMittelwertsatz und Satz von TaylorMittelwertsatzKonvexe MengenSatz von TaylorExtremwertprobleme ⛰Beschränkte und kompakte MengenSatz von Minimum und MaximumOperatornormGlobale und lokale Maxima und MinimaExtremstellen mit RandExtremstellen mit NebenbedigungenUmstellen und EinsetzenLagrange (Beispiel) 🥐Determinantenmethode (Beispiel)Umkehrsatz ↩️VoraussetzungUmkehrfunktion bestimmen (Beispiel)Jacobi Matrix der UmkehrfunktionIntegrationSatz von Fubini 🍝TransformationenNewton Verfahren 🍎AllgemeinesVerfahrenStochastikAxiome und AbleitungenKombinatorikPermutationen 💺Kombinationen 🍫 🐶Variationen 🏇 ⚽️Wahrscheinlichkeiten 🎲AbhängigkeitBedingte WahrscheinlichkeitTotale WahrscheinlichkeitBayesSensitivität und Spezifität 💉UnabhängigkeitZufallsexperimente, Erwartungswert & VarianzZufallsvariable 🪙Diskrete ZufallsvariableStetige ZufallsvariableWahrscheinlichkeitsfunktionUnabhängigkeitErwartungswertVarianzKovarianz und KorrelationskoeffizientJensen-UngleichungIndikatorfunktionWichtige diskrete VerteilungenGleichverteilungBernoulli Verteilung und Binomialverteilung 🐻 0️⃣Poisson Verteilung 🐟Geometrische VerteilungHypergeometrische VerteilungAbschätzungen für Abweichungen vom ErwartungswertMarkov UngleichnungTschebyscheff Ungleichung 🛳Momenterzeugende FunktionenChernoff UngleichungSchwaches Gesetz der großen ZahlWichtige kontinuierliche VerteilungenDichteKontinuierliche GleichverteilungStandardnormalverteilungSatz de Moivre-LaplaceZentraler GrenzwertsatzMultivariate VerteilungenParameterschätzung und KonfidenzintervalleKonfidenzintervallKonfidenz für den Erwartungswert, Varianz bekanntStichprobengröße berechnenHypothesentests TestMarkowkettenStochastische Matrizen
Was beim Ableiten die Kettenregel ist, bezeichnet man beim Integrieren als Substitutionsregel
Beispiel:
Definition: = Differenzen-Quotienten
Die Funktion heißt partiell differenzierbar, wenn in jedem Punkt alle partiellen Ableitungen existieren.
Sie heißt stetig partiell differenzierbar,falls alle partiellen Ableitungen stetige Funktionen sind.
Aus partieller Differenzierbarkeit folgt nicht die Stetigkeit, sondern nur Stetigkeit in Richtung der Koordinatenachsen.
Aus der partiellen Differenzierbarkeit folgt keine totale Differenzierbarkeit.
Ist total differenzierbar, dann ist es auch partiell differenzierbar.
Ist stetig partiell differenzierbar, so ist auch total differenzierbar.
Stetig partiell differenzierbar => Total differenzierbar => Partiell differenzierbar
Beispiel: Partiell differenzierbar, aber nicht stetig
Beispiel: Partielle Ableitung im Ursprung bestimmen
Taylor Polynom:
ist das Lagrange-Restglied
Taylorpolynom aufstellen:
Das Taylorpolynom ist eine Näherung für Funktionswerte von in der Nähe vom Entwicklungspunkt . Taylorpolynome sind nur eine lokale Näherung. Dass heißt der Ausdruck den wir bestimmen funktioniert nur in einem bestimmten Bereich als Näherung - das ist der Bereich um den Entwicklungspunkt.
Positiv Definit (lok. Min) | Negativ Definit (lok. Max) | Indefinit (Sattelpunkt) |
---|---|---|
Alle EW positiv | Alle EW negativ | Postive und negative EW |
Hauptminoren: +, +, +, ... | Hauptminoren: -, +, -, +, .... | sonst |
Anordnung von Objekten, Reihenfolge wichtig
Ohne Elemente, die sich wiederholen:
Mit Elementen, die sich wiederholen:
Auswahlen von aus unterscheidbaren Objekten, die Reihenfolge ist unwichtig
Ohne Elemente, die sich wiederholen:
Mit Elementen, die sich wiederholen:
Auswahlen von aus unterscheidbaren Objekten, die Reihenfolge ist wichtig
Ohne Elemente, die sich wiederholen:
Mit Elementen, die sich wiederholen:
Formel von Bayes:
ist die a posteriori Wahrscheinlichkeit
ist die a priori Wahrscheinlichkeit
Satz von Bayes:
Patient hat Krankheit
Patient hat keine Krankheit
Befund ist positiv (Patient hat Krankheit)
Befund ist negativ (Patient hat keine Krankheit)
Sensitivität
Spezifität
Prävalenz
Die Ereignisse und heißen unabhängig, wenn
Eine Zufallsvariable ist eine Funktion, also eineBeziehung zwischen 2 Mengen
ordnet jedem Ergebnis des Ergebnisraums genau eine Zahl der Menge der reelen Zahlen zu, also
also
Sei ein Wahrscheinlichkeitsraum. Eine Zufallsvariable ist dann die Funktion
Verteilung einer Zufallsvariable X ist das Wahrscheinlichkeitsmaß auf
ist das "Bild von "
ist eine zufällige Variable und die Realisation von . Die Aussage ist eine Abkürzung für "Die Realisation von ist eingetreten oder wird eintreten”
Die Wahrscheinlichkeitsfunktion ist nur für diskrete Zufallsvariablen definiert
Eine Funktion , die jedem einer Zufallsvariablen genau ein aus zuordnet, heißt Wahrscheinlichkeitsfunktion
Beispiel: Münzwurf (2 mal)
Erwartungswert ist der Schwerpunkt der Verteilung
Beispiele
, egal ob und abhängig oder unabhängig
Wenn , dann sind und unkorreliert, d.h.
Die Varianz gibt an, wie viel X vom Erwartungswert abweicht
Verschiebesatz:
Beispiel: Würfeln
Standardabweichung:
Ist eine reelle Funktion, dann ist
Urne mit Kugeln, wobei schwarz und weiß sind. Wie groß ist die Wahrscheinlichkeit, dass bei insgesamt Zügen, Kugeln und Kugeln gezogen werden
Beispiel: 4 richtige beim Lotto
Erwartungswert:
Varianz:
Im Gegensatz zur Binomialverteilung werden die gezogenen Kugeln nicht wieder zurückgelegt
Einfache Markov Regel für nichtnegative :
Beispiel: Fußballmannschaft schießt normalerweise 2 Tore pro Spiel. Wie hoch ist die Wahrscheinlichkeit, dass die Mannschaft 6 Tore schießt?
Abschätzung der maximalen Wahrscheinlichkeit, dass der Wert einer Zufallsvariable X sich außerhalb bestimmer Intervallgrenzen befindet (obere Abschätzung)
Erwartungswert
Varianz
Breite des Intervalls
Beispiel: Schiff sollte sich in der Mitte eines Flusses befinden und eine Abweichung von haben. Die Fahrrinne ist 20m breit, also 10m in jede Richtung. Varianz ist mit gegeben
Beispiel: Faire Münze wird mal geworfen, ist die Anzahl Kopf
Vorteil: Diese Abschätzung nutzt Informationen über alle Momente
Beispiel: Fortsetzung Münzwurfbeispiel
Ist die Annäherung der beobachteten Stichgröße an den theoretischen Erwartungswert stochastisch wahrscheinlich, spricht man vom schwachen Gesetz der großen Zahlen. Bei Sicherheit von dem starken Gesetz der großen Zahlen
Vorteilhaftes Spiel, das einen ruiniert
Eine Standardnormalverteilung liegt immer dann vor, wenn wir eine Normalverteilung mit einem Mittelwert von μ = 0 und einer Standardabweichung von σ = 1 haben
Überführung einer Normalverteilung in eine Standardnormalverteilung durch Standardisierung
Dichte:
ist die Integrationskonstante durch die die Fläcje unter der Kurve beträgt
Beispiel: Was ist die Wahrscheinlichkeit, dass eine Person kleiner als 2m groß ist
Eine binomialverteilte Zufallsgröße ist für normalverteilt
Anwendung:
Beispiel: ),
Verteilungsfunktion:
Erwartungsvektor:
Kovarianzmatrix
Gemeinsame Dichte unabhängiger Zufallsvariablen: sind genau dann unabhängig, wenn gemeinsame Dichte
Sind und unabhängig mit Dichten und , dann hat Dichte
Beispiel Wahlumfrage:
Die Nullhypothese , die geprüft werden soll und ihre logische Verneinung, die Alternativ- bzw. Gegenhypothese . Die Begriffe sind hierbei so zu verstehen, dass geprüft wird, ob bewiesen werden kann, man also bei ergebnisloser Suche weiter als gültig erachte
Fehler 1. Art: Hypothese wird abgeleht, obwohl richtig
Fehler 2. Art: Hypothese wird angenommen, obwohl falsch
Beispiel: Münzwurf
Ablauf:
Beispiel: Signifikanzniveau von 5%
Geschlecht/Instrument | spielt Instrument | spielt kein Instrument | |
---|---|---|---|
männlich | 23 | 29 | 52 |
weiblich | 38 | 10 | 48 |
61 | 39 | 100 |
Geschlecht/Instrument | spielt Instrument | spielt kein Instrument | |
---|---|---|---|
männlich | 31,72 | 20,28 | 52 |
weiblich | 29,28 | 18,72 | 48 |
61 | 39 | 100 |
Eine Markowkette heißt homogen, wenn die Übergangsmatrizen unabhängig von sind
Beispiel:
Wenn alle Einträge sind und die Spaltensummen sind
Übergangsmatrizen sind stochastische Matrizen
ist ein Eigenwert von
für alle Eigenwerte von
Eigenwerte aus Kalifornienbeispiel
Skalieren, sodass Spaltenwert
Gleichgewichtszustand erreicht
Eine Markovkette heißt irreduizbel, wenn man von jedem Zustand zu jedem anderen Zustand mit positiver Wahrscheinlichkeit kommen kann