Metadaten

Heidelberger Akademie der Wissenschaften [Hrsg.]
Jahrbuch ... / Heidelberger Akademie der Wissenschaften: Jahrbuch 2001 — 2002

DOI Kapitel:
I. Das Geschäftsjahr 2001
DOI Kapitel:
Gesamtsitzung am 10. Februar 2001
DOI Kapitel:
Sitzung der Math.-net. Klasse am 28. April 2001
DOI Artikel:
Honerkamp, Josef: Datengestützte Modellierung biologischer Systeme
DOI Seite / Zitierlink: 
https://doi.org/10.11588/diglit.66350#0043
Lizenz: Freier Zugang - alle Rechte vorbehalten
Überblick
Faksimile
0.5
1 cm
facsimile
Vollansicht
OCR-Volltext
54

Sitzungen

d. h. die Wahrscheinlichkeit der Parameter a bei gegebenen Daten y zu berechnen.
Dabei ergibt sich
e(aiy) = e(y'a*e(a)
Q(y)
Diese Bayes’sche Formel ist sehr einfach zu beweisen, aber von ungeheurer Tragwei-
te. Ich kenne keine andere Formel, die so trivial und doch so bedeutsam ist. Man hat
sie erst im Nachlass von Bayes (1702 bis 1761) gefunden.
Die Bayes’sche Formel versieht uns also mit der Wahrscheinlichkeit der gesuchten
Parameter bei gegebenen Daten, sie führt diese zurück auf die Wahrscheinlichkeit der
Daten bei gegebenen Parametern, die durch die Modellstruktur gegeben ist. Ein Schät-
zer für die Parameter ist aber nun naheliegend: Man wählt diejenigen Parameter als
Schätzwerte, für die diese Wahrscheinlichkeit ein Maximum hat. Man definiert also
den sogenannten Maximum A Posteriori Schätzer:
ä = arg maxa p(aly) = arg maxa Q(yla)p(a)
(Bei der Maximierung bezüglich der Parameter stellt die Wahrscheinlichkeit der
Daten, Q(y), nur einen Vorfaktor dar, der keinen Einfluss auf das Ergebnis hat.)
Die Sache hat nur einen Haken, der stets Anlass zu größten Auseinandersetzungen
gibt. Es steht in der Formel auch die sogenannte a-priori-Wahrscheinlichkeit für die
Parameter, p(a). Erst, wenn man diese kennt oder vorgibt zu kennen, kann man die
Wahrscheinlichkeit für a nach Kenntnis der Daten, p(aly), die man somit auch
a-posteriori-Wahrscheinlichkeit nennt, bestimmen. Die Bayes’sche Formel sagt also
nur, wie die a-priori-Wahrscheinlichkeit der Parameter durch die Erfahrung, nämlich
durch die Daten, verändert wird. Es ist sehr wichtig, eine formale Basis für eine solche
Schlussfolgerung zu haben, und das macht auch die Bedeutung der Formel aus und
erklärt ihre häufige Anwendung. Aber es bleibt festzuhalten, dass die a-priori-Wahr-
scheinlichkeit der Parameter in die Formel eingeht. Da andererseits die Bayes’sche
Formel allgemein gilt, ist sie auch nicht zu umgehen. Sie macht daher auch deutlich,
dass jede Schätzung der Parameter im Prinzip von einer a-priori-Schätzung ausgehen
muss.
In vielen Fällen weiß man nichts über die Parameter. Dieses Unwissen kann man in
Form einer konstanten a-priori-Wahrscheinlichkeit p(a)=const. kleiden. Dann redu-
ziert man den MAP-Schätzer auf den Maximum Likelihood Schätzer
ä = arg maxa Q(y I a)
Man muss sich aber bewusst sein, dass man dabei ein gewisses Koordinatensystem
bevorzugt hat. Denn eine Transformation von a nach a’=f(a) mit einer nichtlinearen
Funktion ergibt für a’ eine nicht konstante Dichte. Es macht also einen Unterschied,
ob man für a oder für a’ eine konstante Dichte annimmt.
Die Konstruktion eines Schätzer ist eine Aufgabe, die Berechnung des Maximums
der a-posteriori-Dichte ist ein anderes Problem, das numerisch nichttrivial sein und
große numerische Künste verlangen kann. Es ist aber wichtig, diese beiden Aspekte,
Konstruktion und Auswertung, strikt zu trennen. Wenn man das numerische Problem
bei einem bestimmten Schätzer auch noch so gut gelöst hat, hat man immer noch
wenig erreicht, wenn der Schätzer schlechte statistische Eigenschaften besitzt.
 
Annotationen
© Heidelberger Akademie der Wissenschaften