384
VERANSTALTUNGEN
Ganz grob gesprochen geht es der Informationstheorie um die Wahrschein-
lichkeitsverteilung beziehungsweise die Häufigkeit diskreter Elemente (in geschrie-
bener Sprache, von der Signalübertragung her gesehen, also zunächst Buchstaben).
Die Informationsmenge, die in einer solchen Ansammlung diskreter Einheiten ent-
halten ist, wird Entropie genannt. Zur Signalübertragung gehören ein Sender, Emp-
fänger, ein Kommunikationskanal, eine Kodierung auf der Seite des Senders, der eine
Dekodierung auf der Seite des Empfängers entsprechen muss. Die Informationsü-
bertragung soll sicher sein, Störeffekte („noise“) müssen eliminiert werden. Bei der
Transformation in digitale Signale geht man ökonomischer Weise so vor, dass fre-
quente Signale weniger aufwendig, seltene Signale dagegen aufwendiger codiert
werden. Eine gewisse Redundanz ist der Übertragung normalerweise förderlich.
Die Aspekte der Informationstheorie sind in verschiedenen Disziplinen in
unterschiedlicherWeise fruchtbar geworden. Als erster zeigte dies in höchst anschau-
licher Weise Bernhard Hassenstein („Die Bedeutung des gedanklichen Begriffs
‘Information’ in der Biologie“). Hassenstein hat, zusammen mit Werner Reichardt
und Hans Wenking, diese Theorie mit der Bildung einer Forschungsgruppe zur bio-
logischen Kybernetik am MPI für Biologie in Tübingen, endgültig in der Biologie
etabliert. Besonders fruchtbar war hier die Erkenntnis, dass die Art der Kodierung
unabhängig ist von dem, was codiert werden soll (die Impulse in einer Nervenbahn
haben absolut keine Verwandtschaft mit dem, was sie transportieren; der genetische
Code aus vier Nukleotiden hat ebenso wenig etwas gemeinsam mit der Kette von
Aminosäuren, in die er übersetzt werden kann — es kommt auf das Woher und das
Wohin an, und beim Wohin auf die richtige Dekodierung; es kommt darauf an, dass
die Übertragung derselben ‘Information’ im selben Organismus mit verschiedenen
Kodierungen und auf unterschiedlichen Kommunikationswegen möglich ist (z.B.
Hormone, neuronale Signale); und dass z.B. durch Berechnung im Gehirn (Zeitun-
terschied zwischen Schallsignalen, die auf die Ohren treffen) etwas gehört werden
kann, was durch die Schallsignale selbst gar nicht codiert ist, nämlich die Richtung,
aus der sie kommen.
Bei der Anwendung der Informationstheorie, die Josef Honerkamp anschlie-
ßend vorführte („Der Informationsbegriff in der Physik“), wurde auf den schon
genannten, von Shannon eigentlich aus der Thermodynamik übernommenen
Begriff der Entropie fokussiert; die diskreten Einheiten seines Beispiels waren
Moleküle (Mikrozustände) in einem Gas. Die Entropie ist hier die Anzahl der
Mikrozustände — wenn deren Differenz sehr groß ist, ist die Wahrscheinlichkeit,
durch Messung einen ganz bestimmten Mikrozustand anzutreffen, gering. Wenn man
Entropie als Anzahl der Mikrozustände versteht, wird sie zum Maß für den Mangel
an Information darüber, welcher der Mikrozustände zu bestimmter Zeit vorliegt.
Der große Vorteil dieses informatischen Entropiebegriffs liegt für den Physiker
nun darin, dass man aufgrund der Annahmen über die statistische und die Wahr-
scheinlichkeitsverteilung von Mikrozuständen — und damit gleichzeitig über den
Mangel an Informationen darüber, welcher der Mikrozustände zu einer bestimmten
Zeit an einem bestimmten Ort vorliegt — eine Maßzahl bekommt, mit der man (in
der statistischen Physik) bestens rechnen kann.
VERANSTALTUNGEN
Ganz grob gesprochen geht es der Informationstheorie um die Wahrschein-
lichkeitsverteilung beziehungsweise die Häufigkeit diskreter Elemente (in geschrie-
bener Sprache, von der Signalübertragung her gesehen, also zunächst Buchstaben).
Die Informationsmenge, die in einer solchen Ansammlung diskreter Einheiten ent-
halten ist, wird Entropie genannt. Zur Signalübertragung gehören ein Sender, Emp-
fänger, ein Kommunikationskanal, eine Kodierung auf der Seite des Senders, der eine
Dekodierung auf der Seite des Empfängers entsprechen muss. Die Informationsü-
bertragung soll sicher sein, Störeffekte („noise“) müssen eliminiert werden. Bei der
Transformation in digitale Signale geht man ökonomischer Weise so vor, dass fre-
quente Signale weniger aufwendig, seltene Signale dagegen aufwendiger codiert
werden. Eine gewisse Redundanz ist der Übertragung normalerweise förderlich.
Die Aspekte der Informationstheorie sind in verschiedenen Disziplinen in
unterschiedlicherWeise fruchtbar geworden. Als erster zeigte dies in höchst anschau-
licher Weise Bernhard Hassenstein („Die Bedeutung des gedanklichen Begriffs
‘Information’ in der Biologie“). Hassenstein hat, zusammen mit Werner Reichardt
und Hans Wenking, diese Theorie mit der Bildung einer Forschungsgruppe zur bio-
logischen Kybernetik am MPI für Biologie in Tübingen, endgültig in der Biologie
etabliert. Besonders fruchtbar war hier die Erkenntnis, dass die Art der Kodierung
unabhängig ist von dem, was codiert werden soll (die Impulse in einer Nervenbahn
haben absolut keine Verwandtschaft mit dem, was sie transportieren; der genetische
Code aus vier Nukleotiden hat ebenso wenig etwas gemeinsam mit der Kette von
Aminosäuren, in die er übersetzt werden kann — es kommt auf das Woher und das
Wohin an, und beim Wohin auf die richtige Dekodierung; es kommt darauf an, dass
die Übertragung derselben ‘Information’ im selben Organismus mit verschiedenen
Kodierungen und auf unterschiedlichen Kommunikationswegen möglich ist (z.B.
Hormone, neuronale Signale); und dass z.B. durch Berechnung im Gehirn (Zeitun-
terschied zwischen Schallsignalen, die auf die Ohren treffen) etwas gehört werden
kann, was durch die Schallsignale selbst gar nicht codiert ist, nämlich die Richtung,
aus der sie kommen.
Bei der Anwendung der Informationstheorie, die Josef Honerkamp anschlie-
ßend vorführte („Der Informationsbegriff in der Physik“), wurde auf den schon
genannten, von Shannon eigentlich aus der Thermodynamik übernommenen
Begriff der Entropie fokussiert; die diskreten Einheiten seines Beispiels waren
Moleküle (Mikrozustände) in einem Gas. Die Entropie ist hier die Anzahl der
Mikrozustände — wenn deren Differenz sehr groß ist, ist die Wahrscheinlichkeit,
durch Messung einen ganz bestimmten Mikrozustand anzutreffen, gering. Wenn man
Entropie als Anzahl der Mikrozustände versteht, wird sie zum Maß für den Mangel
an Information darüber, welcher der Mikrozustände zu bestimmter Zeit vorliegt.
Der große Vorteil dieses informatischen Entropiebegriffs liegt für den Physiker
nun darin, dass man aufgrund der Annahmen über die statistische und die Wahr-
scheinlichkeitsverteilung von Mikrozuständen — und damit gleichzeitig über den
Mangel an Informationen darüber, welcher der Mikrozustände zu einer bestimmten
Zeit an einem bestimmten Ort vorliegt — eine Maßzahl bekommt, mit der man (in
der statistischen Physik) bestens rechnen kann.