40
Sitzungen
Im Rahmen meiner Ausflüge in die angewandteren Gebiete stellte ich fest, dass man
das Verhalten von komplexeren Systemen wie lonenkanäle oder Polymermischungen
auch mathematisch beschreiben kann, dass aber Modellbildung und Datenkenntnis
einen ganz anderen Stellenwert bekommen und dass Modelle auch andere Strukturen
und Grundlagen haben können. Modelle für komplexe Systeme kommen fast nie ohne
wahrscheinlichkeitstheoretische Konzepte aus, da man z.B. nie vollständige Informa-
tion über den Einfluss der Umgebung auf ein System hat oder über die für die zeit-
liche Entwicklung wichtigen Parameter. Bei komplexen Systemen muss man also mit
unvollständiger Information rechnen, dementsprechend muss man auch mit unvoll-
ständiger Information rechnen können, d. h. die zugehörige Mathematik, die Mathe-
matik der Stochastik, beherrschen lernen und man muss stochastische Modelle für die
Beschreibung verwenden können. Solche Modelle entwickelt man nun nicht mehr
allein aus ‘first principles’, sondern z.B. auf der Basis von Vorstellungen über prinzi-
pielle Reaktionsmechanismen. Dem Mangel an Information muss man durch Ein-
führung von Zufallsvariablen mit bestimmten Eigenschaften gerecht werden, die
Modelle sind dann also nicht mehr deterministisch. Weiterhin muss man systemspezi-
fische Parameter oder sogar Verteilungsfunktionen einführen, die zunächst unbekannt
sind, so dass das Modell erst mit Hilfe der Analyse experimenteller Daten verfertigt
werden kann. Hier kann man also nur noch in tiefer Vertrautheit mit den Daten Theo-
rie betreiben und die Modellierung geht nun Hand in Hand mit der Analyse der
Daten. Man spricht von datengestützter Modellierung und man benötigt dabei in ganz
besonderem Maße die Kunst des statistischen Schließens aus Daten. Aber mit dem
Verfertigen eines Modells auf der Basis von Daten ist es meistens noch nicht getan. In
der Regel gibt es konkurrierende Modelle, z.B. verschiedene Reaktionsmechanismen,
und man hat das schließlich wichtigste Problem, das Problem der Modellselektion auf
der Basis von Daten, zu lösen, das sich bei komplexen Systemen als besonders schwie-
rig erweist.
So lernte ich unter dem Gebiet ‘Statistische Physik’ auch die Aufgabe der datenge-
stützten Modellierung komplexer Systeme zu verstehen. Zusammen mit den Mathe-
matikern der Mathematischen Statistik und Stochastik, insbesondere auch mit Herrn
Kollegen Witting, und den Biometrikern aus der Theoretischen Medizin, die von
Hause auch Mathematiker sind, gründeten wir im Jahre 1992 das ‘Freiburger Zentrum
für Datenanalyse und Modellbildung’, auch FDM genannt. Es zeigte sich bei der
Arbeit in diesem Zentrum bald, dass ein großer Bedarf an mathematisch fundierter
Datenanalyse und Modellierung besteht, sowohl in den wissenschaftlichen Labors wie
in Forschungsabteilungen der Firmen. Wir sahen das insbesondere in der klinischen
Medizin, wozu unsere Kontakte aus verschiedensten Gründen besonders gut waren.
Der Reiz der Arbeit liegt darin, dass man auf zwei ganz verschiedenen Feldern aktiv
und kreativ werden muss: Man hat einerseits das Gebiet und das Experiment, von dem
die Daten kommen, genügend gut zu verstehen: Das bedeutet lange und intensive Dis-
kussion mit den experimentellen Kollegen über die Herkunft und den Erzeugungs-
vorgang der Daten. Andererseits hat man für die Fragestellung, die man zusammen mit
den experimentellen Kollegen präzisieren muss, die entsprechenden mathematischen
Modellstrukturen und Methoden zu finden.
Für ein Gebiet, das so viel mathematische Kenntnisse und Fertigkeiten verlangt,
aber auch so viel Einfühlungsvermögen für Experimente und anwendungsspezifische
Probleme, sind vielleicht gerade theoretische Physiker nicht die ungeeignetsten. Wenn
Sitzungen
Im Rahmen meiner Ausflüge in die angewandteren Gebiete stellte ich fest, dass man
das Verhalten von komplexeren Systemen wie lonenkanäle oder Polymermischungen
auch mathematisch beschreiben kann, dass aber Modellbildung und Datenkenntnis
einen ganz anderen Stellenwert bekommen und dass Modelle auch andere Strukturen
und Grundlagen haben können. Modelle für komplexe Systeme kommen fast nie ohne
wahrscheinlichkeitstheoretische Konzepte aus, da man z.B. nie vollständige Informa-
tion über den Einfluss der Umgebung auf ein System hat oder über die für die zeit-
liche Entwicklung wichtigen Parameter. Bei komplexen Systemen muss man also mit
unvollständiger Information rechnen, dementsprechend muss man auch mit unvoll-
ständiger Information rechnen können, d. h. die zugehörige Mathematik, die Mathe-
matik der Stochastik, beherrschen lernen und man muss stochastische Modelle für die
Beschreibung verwenden können. Solche Modelle entwickelt man nun nicht mehr
allein aus ‘first principles’, sondern z.B. auf der Basis von Vorstellungen über prinzi-
pielle Reaktionsmechanismen. Dem Mangel an Information muss man durch Ein-
führung von Zufallsvariablen mit bestimmten Eigenschaften gerecht werden, die
Modelle sind dann also nicht mehr deterministisch. Weiterhin muss man systemspezi-
fische Parameter oder sogar Verteilungsfunktionen einführen, die zunächst unbekannt
sind, so dass das Modell erst mit Hilfe der Analyse experimenteller Daten verfertigt
werden kann. Hier kann man also nur noch in tiefer Vertrautheit mit den Daten Theo-
rie betreiben und die Modellierung geht nun Hand in Hand mit der Analyse der
Daten. Man spricht von datengestützter Modellierung und man benötigt dabei in ganz
besonderem Maße die Kunst des statistischen Schließens aus Daten. Aber mit dem
Verfertigen eines Modells auf der Basis von Daten ist es meistens noch nicht getan. In
der Regel gibt es konkurrierende Modelle, z.B. verschiedene Reaktionsmechanismen,
und man hat das schließlich wichtigste Problem, das Problem der Modellselektion auf
der Basis von Daten, zu lösen, das sich bei komplexen Systemen als besonders schwie-
rig erweist.
So lernte ich unter dem Gebiet ‘Statistische Physik’ auch die Aufgabe der datenge-
stützten Modellierung komplexer Systeme zu verstehen. Zusammen mit den Mathe-
matikern der Mathematischen Statistik und Stochastik, insbesondere auch mit Herrn
Kollegen Witting, und den Biometrikern aus der Theoretischen Medizin, die von
Hause auch Mathematiker sind, gründeten wir im Jahre 1992 das ‘Freiburger Zentrum
für Datenanalyse und Modellbildung’, auch FDM genannt. Es zeigte sich bei der
Arbeit in diesem Zentrum bald, dass ein großer Bedarf an mathematisch fundierter
Datenanalyse und Modellierung besteht, sowohl in den wissenschaftlichen Labors wie
in Forschungsabteilungen der Firmen. Wir sahen das insbesondere in der klinischen
Medizin, wozu unsere Kontakte aus verschiedensten Gründen besonders gut waren.
Der Reiz der Arbeit liegt darin, dass man auf zwei ganz verschiedenen Feldern aktiv
und kreativ werden muss: Man hat einerseits das Gebiet und das Experiment, von dem
die Daten kommen, genügend gut zu verstehen: Das bedeutet lange und intensive Dis-
kussion mit den experimentellen Kollegen über die Herkunft und den Erzeugungs-
vorgang der Daten. Andererseits hat man für die Fragestellung, die man zusammen mit
den experimentellen Kollegen präzisieren muss, die entsprechenden mathematischen
Modellstrukturen und Methoden zu finden.
Für ein Gebiet, das so viel mathematische Kenntnisse und Fertigkeiten verlangt,
aber auch so viel Einfühlungsvermögen für Experimente und anwendungsspezifische
Probleme, sind vielleicht gerade theoretische Physiker nicht die ungeeignetsten. Wenn