Informatik, Naturwissenschaften, Physik

Von der Information zur Transzendenz – Vom Wissen zum Glauben

Prof. Dr. Dr. Karl Goser · 
01.01.2007

Es kann gezeigt werden, dass physikalische Gesetze auch als Informationsgesetze interpretiert werden können. Die Information des physikalischen Systems hat eine Wirkung zur Folge, wobei das Plancksche Wirkungsquantum h die Koppelgröße ist. Der Frage nach der Wirkung wird am Beispiel der Computer und der biologischen neuronalen Netze weiter verfolgt. Bei ihnen ist das Besondere, dass neben der Struktur an sich noch Information in einer zweiten Ebene vorkommt. Ein neuronales Netz bringt einerseits durch Emergenz Information hervor, andererseits kann Information nach dem Satz “Actio gleich Reactio“ auch auf das Netz wirken. Damit ist ein Informationsaustausch mit der Geisteswelt durchaus verständlich. Bei diesen Prozessen spielt die Wärme in Zweifacherweise eine entscheidende Rolle: Sie löst einerseits das Energieproblem, da sie den neuronalen Netzen als Akkumulator dient, andererseits hat sie einen Störnebel, den Boltzmann Vorhang, zur Folge, der Zufallsprozesse produziert und der uns den Zugang zur Geisteswelt nahezu unmöglich macht. Daher ist Transzendenz für uns schwer fassbar.

1. Einleitung 

Im Folgenden wird eine durchaus bekannte, aber scheinbar nicht mehr existierende Frage aufgegriffen, nämlich die, ob es eine Wechselwirkung zwischen Geist und Materie gibt, oder in naturwissenschaftlicher Nomenklatur zwischen Information und materiellen Strukturen. Viele Leser werden wahrscheinlich denken, dass diese Frage schon lange ad acta zu legen ist, denn aus Sicht der Naturwissenschaften haben alle Experimente bisher gezeigt bzw. wurden so gedeutet, dass es eine solche Wechselwirkung nicht gibt. Allerdings käme einer solchen Wechselwirkung eine fundamentale Bedeutung zu, denn sie stellt einen Eckstein für die Gebäude der Geisteswissenschaften und der Theologie dar. Erst kürzlich beschäftigten sich 100 Religionsphilosophen in Tübingen mit der Frage: “Ist Religion nur eine kulturelle Erscheinung oder ist sie auf Transzendentes bezogen?“.

Diese Frage kann man ausschließlich auf der Ebene der Philosophie diskutieren. Für Naturwissenschaftler und praktisch denkende Menschen reicht eine solche Diskussion jedoch nicht aus, denn es bleibt das Dilemma, wie diese Frage im Rahmen eines naturwissenschaftlichen Weltbildes anschaulich zu beantworten ist. Gerade in der Physik und in der Technik gibt es ähnliche Fragestellungen. Beispielsweise interessiert man sich in der Mikroelektronik für die Grenzen dieser Technologie: Wie klein kann man die Schaltelemente für informationsverarbeitende Systeme herstellen? Wie viele Schaltelemente lassen sich auf einem Chip unterbringen? Wie lange gilt noch das Mooresche Gesetz? Aus dem Blickwinkel der Hardware wird im Folgenden das Problem der Wechselwirkung zwischen Information und materiellen Strukturen betrachtet.

Aus einer solchen Betrachtung folgen bemerkenswerte Ergebnisse. Es lässt sich eine Hypothese aufstellen, die teilweise experimentell untermauert, teilweise spekulativ ist und die interessanterweise ein Modell liefert, das uns in einem weiten Bereich Effekte, die uns bis heute noch rätselhaft vorkommen, durchaus plausibel macht. Zweifelsohne handelt es sich nur um eine Hypothese, aber selbst in der Physik gibt es viele spekulative Modelle, denn oft kann man nur über sie zu neuen Vorstellungen kommen.

2. Naturgesetze als Informationsgesetze 

In den Geisteswissenschaften wird für die Existenz der Willenfreiheit oft die Heisenbergsche Unschärfe-Relation herangezogen. Sie besagt, dass physikalische Strukturen im atomaren Bereich grundsätzlich nur mit einer begrenzten Genauigkeit aufgelöst werden können (Bild 1). Die Auflösungsgenauigkeit wird durch das Wirkungsquantum h bestimmt.

Bild 1 Die Heisenbergsche Unschärfe-Relation und einige Zustände des idealisierten Wasserstoff-Atoms 

Die Gründe für eine solche Beziehung sind aus Sicht der Informationstheorie relativ einfach: Im Universum ist die Energie begrenzt und damit die Information auch, so dass Dinge im Universum nicht beliebig genau angegeben werden können, d. h. die Stellenzahl ist begrenzt. Das Besondere ist jedoch, dass die letzte Stelle nur durch echten Zufall bestimmt wird. Sie muss zwingend mit Hilfe von Wahrscheinlichkeiten beschrieben werden. In vielen Fällen kann man diese zufälligen Zustände mit Hilfe der Schrödinger Gleichung berechnen.

Ein bekanntes Beispiel dafür sind die Zustände eines idealen Wasserstoffatoms, von dem in Bild 1 diese Zustände für n = 1, 2, 3 und 4 zu sehen sind. Die Intensität der Wolken gibt die Wahrscheinlichkeit an, mit der das Elektron vorzufinden ist. Bemerkenswert ist auch, dass diese Zustände eben mehr als reine Zahlwerte, wie 1, 2 usw., repräsentieren, die nur die Energie des jeweiligen Zustandes angeben. Die genaue Erforschung solcher Zustände ist letztendlich aufwändig, wie die kostspieligen Anlagen bei CERN zeigen. Gerade diese Eigenschaften der Teilchen werden übrigens beim Quantencomputer erfolgreich genutzt.

Obwohl die Wirkung unanschaulich ist, spielt sie in der Physik eine große Rolle, beispielsweise beim Hamiltonschen Prinzip. Dieses Prinzip besagt, dass die Aktion bzw. Wirkungsfunktion einem Extremwert zu strebt. Der Gedanke, ein Naturgesetz in dieser Form anzugeben, dass man eine bestimmte Größe angibt, die beim Ablauf einen Extremwert annimmt, ist fast so alt wie das wissenschaftliche Denken überhaupt.

Schon Mitte des letzten Jahrhunderts hat man die Wirkung bzw. die Entropie mit der Größe Information in Verbindung gebracht. Die Frage, was versteht man unter Information, wird im Folgenden nur erwähnt, denn bei ihr kann man auf die exzellenten Bücher von H. Lyre und L. Brillouin, sowie auf die Arbeiten von F. von Weizsäcker und T. Stonier verweisen. In diesem Zusammenhang ist auch die Kybernetik, zu deren Entwicklung N. Wiener und K. Steinbuch wesentlich beigetragen haben, zu erwähnen. Für die Ausführungen in dieser Arbeit soll folgende Andeutung genügen: Information, genauer den Informationsgehalt, kann man immer dann angeben, wenn etwas vorhanden ist, zu einer numerischen Information kommt man, indem man das Etwas auf Gleichartiges normiert.

In einem Physikbuch findet man die Größe “Information“ generell nicht, denn in der Physik gibt es nur Zufall und Wahrscheinlichkeit. Es kommen keine Nachrichten bzw. Informationen von neuen Ereignissen vor, da über die Naturgesetze alles vorher berechnet werden kann. In der Physik gibt es dafür Messwerte. Messwerte stellen auch eine Information, bzw. genauer einen Informationsgehalt, dar. Für die Angabe von Messwerten, z. B. über Gewichte von Massen oder Längen von Abständen, sind Normale nötig. Die Normale für 1 kg und 1 m befanden sich früher in Form von Metallbarren in Paris, diese Normale sind jedoch mittlerweile durch Größen aus dem atomaren Bereich ersetzt worden. Mit diesen Gewichtswerten, d.h. mit numerischer Information, kann ein Markt mit einer Vielfalt an Waren abgewickelt werden. Im Folgenden wird am Beispiel des Gravitationsgesetzes gezeigt, dass man auch für physikalische Systeme einen Informationsgehalt angeben kann.

Das Gravitationsgesetz folgt qualitativ aus der Information von zwei Massen und deren Abstand (Bild 2). Man beachte, dass die Information als Logarithmus erfasst wird, so dass aus der Addition der logarithmischen Größen eine Multiplikation bzw. Division wird. Man kann also die physikalische Struktur als ein Informationsgebilde ansehen, für das man einen Informationsgehalt I angeben kann, deren Zahlenwert von der Normierung abhängt. Dabei ist die physikalische Struktur selbst die Information, in diesem Fall in Form von zwei Massen und des durch sie bedingten Abstandes und zwar als eine Informationseinheit. Die Information ist also nicht irgendwo, beispielsweise in einer Geisteswelt, sondern ist die physikalische Struktur selbst. Sie ist aus meiner Sicht als die ursprüngliche Größe anzusehen. Die Information ist ein Teil des Informationsuniversums und erscheint in der sichtbaren Welt in Form von Materie und Energie. Diese Ansicht vertritt auch A. Zeilinger in seinem Buch über die Quantenphysik.

Was versteht man eigentlich unter Wirkung? Wir können uns Energie E vorstellen, z. B. die Energie von 1 Liter Benzin, wir können uns Leistung N vorstellen, das ist Energie pro Zeiteinheit, in unserem Beispiel die Leistung in PS bzw. kW eines Autos. Beides ist für uns plausibel, aber Wirkung entzieht sich unserer Vorstellungswelt, denn Wirkung ist Energie mal Zeit. Wirkung erfahren wir auch beim Licht: Licht besteht aus Wirkungsquanten, die sich mit hoher Geschwindigkeit ausbreiten, ohne Energie zu verlieren. Die Quantisierung hat Energiepakete zur Folge, deren Größe umgekehrt proportional zur Schwingungsdauer des Lichtes ist und die wir in einem Lautsprecher eines optischen Empfängers als Knacken wahrnehmen können.

Aus diesem Ansatz folgt das Gravitationsgesetz auch quantitativ. Multipliziert man dieses Ergebnis mit dem Planckschen Wirkungsquantum h, so folgt aus ihm das Gravitationsgesetz auch quantitativ richtig, wenn man für die Bezugsmasse die Compton-Wellenlänge r0 sowie einen mittleren Massenwert m0 der Elementarteilchenfamilie und für die Zeit das Alter tU des Universums wählt. Diese Zeit braucht man, um in der Gleichung von der Entropie zur Energie zu kommen (Bild 2).

Gravitation und Information

Plancksches Wirkungsquantum h als Koppelgröße

Bild 2 Das Gravitationsgesetz als Informationsgesetz 

Diesen Schritt kann man auch auf andere Gesetze der klassischen Physik anwenden. Dabei muss man erwähnen, dass man für manche Gesetze noch die Information des Kreises benötigt, dann ist die Koppelgröße nicht h sondern h / 2π = h . Beim Coulomb Gesetz und anderen stimmt die Herleitung in allen Einzelheiten, und es treten keine Ungereimtheiten wie beim Gravitationsgesetz auf, das auch heute noch in der Physik Probleme bereitet, denn – wie Sie wissen – fehlt eine Theorie für die Quantengravitation. Die Gravitation wurde als Beispiel gewählt, da sie jeder direkt erfährt und daher für den Menschen spektakulär ist.

Interessanterweise kann man mit diesem Modell die Kraft als Informationsgradienten interpretieren, was zweifelsohne anschaulicher ist als die abstrakte Größe “Kraft“, die man heute in der Physik verwendet. Da die Information einem Extremwert zustrebt, ist die Kraft auch auf die Nachbarmasse gerichtet und nicht sonst irgendwo hin. Trotzdem wählt man in der Physik diese Betrachtung nicht, denn die Beschreibung der physikalischen Vorgänge würde dadurch nur umständlicher. Damit widerspricht sie dem Occamschen Prinzip, außerdem gibt es, wie oben schon erwähnt worden ist, in der Physik die Größe “Information“ aus wohl überlegten Definitionsgründen nicht.

Was hat dann diese einfache Interpretation überhaupt zu bieten? Die Darstellung legt nahe, dass aus dem Informationsgehalt eines Systems die physikalischen Zusammenhänge folgen, und sie führt über eine Verallgemeinerung zu dem spekulativen Schluss, dass Information über das Wirkungsquantum h als Koppelgröße auf unsere Materie und deren Strukturen wirkt. Daher kann man die Hypothese aufstellen: Information scheint auf Materie zu wirken. Diese Hypothese wirft sofort die Frage auf, wie sieht es bei informationsverarbeitenden Systemen aus.

3. Informationsverarbeitende Systeme 

Das besondere an informationsverarbeitenden Systemen ist, dass Information auf einer weiteren Ebene vorkommt. Einerseits kann man die materielle Struktur des Systems selbst nach den o. g. Ausführungen als Information in einer ersten Ebene ansehen, ähnlich wie die Massen beim Gravitationsgesetz. Andererseits wird in einer zweiten Ebene Information in der materiellen Struktur des Netzes gespeichert und verarbeitet, und sie hat mit der materiellen Struktur an sich wenig zu tun. Wie ist in diesem Fall die Wirkung der Information?

In der Informationstechnik verwendet man auch die Größe Bit. Beim Bit sind “0“ und “1“ absolut zu sehen, denn man kann alle logischen Operationen auf diese Größen reduzieren. Auch ist das Bit unabhängig von physikalischen Strukturen definiert, was den großen Vorteil mit sich bringt, dass die Informationsprozesse von den materiellen Strukturen entkoppelt sind. Daher vertreten manche Philosophen die Ansicht, dass Information metaphorisch sei. Für die Informationstechnik bringt diese Entkopplung einen großen Fortschritt, denn man kann die Eigenschaften eines informationsverarbeitenden Systems unabhängig von den physikalischen Vorgängen beschreiben. Dabei darf man allerdings nicht vergessen, dass die Prozesse der Informationsverarbeitung letztendlich in Hardware-Strukturen zuverlässig in physikalische Strukturen abgebildet werden müssen, was Nichtfachleute oft übersehen.

Für die Mikrominiaturisierung gibt es atomare Grenzen. Man kann Zahlen im atomaren Bereich darstellen, wie der Abakus in Bild 3 zeigt. Teilchen unterhalb der Atome haben keine Identität und sind daher für die Informationsverarbeitung nicht mehr interessant. Heute arbeiten die Computer nicht als Abakus sondern als von Neumann-Maschinen mit Rechenwerk mit Speicher und Datenstrings.

Bild 3 Beispiele für informationsverarbeitende Systeme: Abakus für Computer und neuronales Netz aus einem Gehirn 

Für eine Informationsverarbeitung bieten sich neben den heute üblichen Computern auch konnektionistische Systeme an, bei denen ein Programm in der Stärke der Verbindungen zwischen Knoten (Neuronen) gespeichert ist. Solche Systeme findet man bei Lebewesen in ihren Gehirnen, – einen Ausschnitt davon zeigt Bild 3 – oder auch in künstlichen neuronalen Netzen der Elektronik. Sie zeichnen sich durch eine hohe Parallelverarbeitung und neue Eigenschaften aus. Da diese Eigenschaften bei den einzelnen Elementen nicht zu finden und auch nicht vorhersagbar sind, spricht man bei ihnen von Emergenz.

Wenden wir uns einer der Fragen über die Grenzen solcher Systeme zu: Wie viel Energie braucht man überhaupt, um die Information von einem Bit in einem Computer, also in der zweiten Ebene, sicher darzustellen? Aus technischer Sicht setzt u. a. das thermische Rauschen eine Grenze, das heißt, die Energie, die für 1 Bit aufgewendet werden muss, sollte größer als die mittlere thermische Energie eines Teilchens, d. h. kT, sein, um sicher repräsentiert zu werden (In der Regel wählt man 50 kT, da man bei einem Datenverarbeitungssystem im Mittel nur etwa einen Fehler pro Jahr im System zulässt.). Dabei ist T die absolute Temperatur und k die Boltzmann Konstante, eine neben h wichtige Naturkonstante. Ist die für 1 Bit aufgewendete Energie kleiner als dieser Wert, treten infolge der thermischen Schwankungen sehr viele Fehler auf, die eine Informationsverarbeitung praktisch unmöglich machen. Auch bei diesem Abakus müssen die Atome in Energiemulden festgehalten werden, die mindestens eine Tiefe von kT haben.

Die thermische Energie kann man erniedrigen, wenn man die Temperatur T absenkt und damit kann man auch die Schaltenergie verkleinern. Allerdings geht diese Strategie nur bis zu einer neuen Grenze, denn man stellt dann fest, dass die Quantisierung der physikalischen Größen, wie der elektrischen Ladung und des magnetischen Flusses, der Datenverarbeitung eine weitere Grenze setzt. Diese Grenze ist von grundsätzlicher Art und ist wiederum durch das Plancksche Wirkungsquantum h gesetzt.

Wie sieht es unter diesem Gesichtspunkt mit der Wechselwirkung der Information auf der zweiten Ebene aus, die nur lose mit der materiellen Struktur verknüpft ist. Auch hier kann man die für die erste Ebene aufgestellte These erweitern: Information wirkt nicht nur auf der ersten Ebene, sondern auch auf der zweiten Ebene, d.h. nach dieser These wirkt Information bzw. Geist auch auf neuronale Strukturen. Wenn man dann noch annimmt, dass der Geisteswelt eine Realität zukommt – schon die Existenz der Geisteswissenschaften sollte dafür ein Beweis sein -, dann entstehen in unserem Gehirn nicht nur geistige Strukturen, sondern nach dem Satz – “Actio gleich Reaktio“ – müssen geistige Strukturen auf unser Gehirn wirken und zwar in Form eines Informationsblockes und nicht eines Datenstrings. Ähnlich wie bei den Gewichten und den Waren muss man auch hier die Vielfalt sehen, die in diesem Fall durch die Architekturen neuronaler Strukturen gewährleistet ist. Wie das Gewicht nichts über die Art der Ware aussagt, so sagt der numerische Informationswert in Bit nichts über die Art der Information aus. Er gibt jedoch die Energie an, die die Information braucht, um zu wirken. Man kann daher die Hypothese aufstellen, dass es eine Kopplung zwischen der Geisteswelt und unseren neuronalen Netzen auf der zweiten, der oberen Ebene geben kann.

Diese Wirkung der Information im biologischen neuronalen Netz veranlasst eine Umstrukturierung des Netzes, was man landläufig u. a. als Lernen und Aha-Effekte erfährt. Das Lernen ist ein komplexer Vorgang, jedoch mit der bekannten Hebb ́schen Regel durchaus verständlich. Auf der einen Seite eines Neurons wirkt die Information und auf der anderen Seite die Wirkung unseres Willen. Damit kann der Lernvorgang unter der Kontrolle des Ich-Bewusstseins stehen, nur wenn ich die Umstrukturierung will, verändert sich das neuronale Netz in die durch die Wirkung der Information gegebene Richtung. Dieses Lernen, hier ein Vorgang der das ganze Gehirn erfasst, ist wesentlich einfacher als das Lernen im täglichen Leben oder in der Schule, wo die Information über die Sinnesorgane dem Gehirn zugeführt wird und dann das komplexe Gehirn sich auf Grund der von außen ankommenden Signale umstrukturieren soll.

Die Idee einer Wirkung ist nicht neu. Schon J. Eccles postulierte eine Wirkung des Geistes auf das Gehirn, allerdings ohne Einzelheiten für diesen Prozess angeben zu können. Viele heutige Hirnforscher stehen seiner These skeptisch gegenüber. Ein Wirkungsfeld, das viele Strukturen mitgestaltet, bildet die Kernaussage von R. Sheldrake, der darüber mehrere Bücher geschrieben hat. Da diese Wirkung bis jetzt nicht experimentell nachgewiesen werden konnte, wurde sein Konzept in der Wissenschaft nicht anerkannt.

Schon diese Tatbestände zeigen, dass alles nicht so einfach ist. Es gibt einige Fragen, die sich schon immer stellten und die zu beantworten sind, beispielsweise: Woher kommt die Energie für diese Wechselwirkung? Wird nicht der Energiesatz verletzt?

4. Einfluss der Wärme 

Der schwerwiegendste Einwand gegen die These einer Wirkung von Information ist der, woher die Energie für die zwangsläufig damit verknüpfte Entropieänderung kommt. Eine Energiestrahlung konnte man bis jetzt nicht feststellen: Woher sollte sie auch kommen? Beim Abakus in Bild 3 muss man Arbeit verrichten, wenn man die Atome verschieben will. Diese Überlegungen gelten aber für leblose, physikalische Systeme und für Wechselwirkungen auf der ersten Ebene.

Etwas andere Verhältnisse finden wir bei biologischen, also lebenden Systemen, die aus kleinen Zellen aufgebaut sind. Für sie werden im Folgenden zwei charakteristische Beispiele für das Energieproblem (Bild 4) gebracht:

  • In der Welt der Molekularbiologie gibt es den kostenfreien Transport von Molekülen, d. h. ein Transport von Information ohne Energieaufwand. In einem Mikrosystem mit vielen Molekülen bewegen sich die Teilchen aufgrund der Wärmebewegung im Raum hin und her und nach einer gewissen Zeit kommen sie mit einer gewissen Wahrscheinlichkeit am Zielort vorbei. Beispielsweise überstreicht ein Teilchen bei Zimmertemperatur in 1 Sekunde mit einer gewissen Wahrscheinlichkeit einen Umkreis von 6 μm. Wird es am Zielort festgehalten, wurde es transportiert, ohne dass dabei Arbeit geleistet oder Energie verbraucht worden wäre. Dieser sog. kostenfreie Transport wird beim Molekular-Computer (DNA-Computer) genutzt.

Bild 4 Brownsche Bewegung und Geschwindigkeitsverteilung nach Maxwell 

  • Beim zweiten Beispiel wird die Energieverteilung der Moleküle in einer Zelle betrachtet. Nach der Maxwell Verteilung haben auf molekularer Ebene die Teilchen verschieden hohe Energien. Sie haben nicht alle die gleiche Energie, sondern es gibt immer welche mit sehr hohen Energiewerten. Gerade sie können an die neuronalen Strukturen Energie abgeben und sie verändern. Diese Veränderungen sind aus Sicht der Naturwissenschaften zufällige Ereignisse. Dabei sind die Energien, die bei solchen Prozessen umgesetzt werden, sehr klein und praktisch nicht messbar, wie folgende einfache Abschätzung deutlich macht: Wenn in 1 mm3 sich etwa 1016 Teilchen befinden und 5 davon ihre Energie an das neuronale Netz abgeben, dann erniedrigt sich die Energie im Volumen um ein 10-15stel, was ist ein unvorstellbar kleiner Wert ist. Einerseits kann dieser Wert wohl kaum gemessen werden, andererseits ist diese Energie notwendig, um im neuronalen System materielle Strukturänderungen zu bewirken.

Diese Änderung muss im neuronalen Netz wirklich umgesetzt werden. Der Ort der Umsetzung sind die Synapsen. Durch die Wirkung der Information kommt es nach der Hebbschen Regel zu einem Lernvorgang: Es verändert sich der Aufbau der Synapse, z. B. die Zahl der Vesikel. Man muss noch berücksichtigen, dass die Neuronen eine Art Schwellwertgatter sind: Erst wenn ein gewisses Potential erreicht wird feuern sie, so dass, wenn sie vorbereitet sind, schon sehr kleine Veränderungen zum Feuern der Neuronen ausreichen. Aus Sicht der Naturwissenschaften werden solche Vorgänge stets als zufällige Prozesse beschrieben und damit die Wirkung der Information außer Acht gelassen. Die Veränderungen in den Synapsen erfolgt normalerweise über das Lernen oder zufällig über das Wärmerauschen. Außerdem können diese V eränderungen durch Krankheiten sowie Drogen eintreten.

Nach dem vorgestellten Modell tritt kein Energiefluss von irgendwo her auf! Wenn Energie für die Wirkung gebraucht wird, wird sie dem Wärmemeer entnommen, denn wir sind von einem “Meer“ von Energie in Form von Wärme umgeben. Das Wärmemeer dient dem neuronalen Netz nur als Akkumulator, denn die entnommene Energie wird im Laufe der Zeit wieder zurückgegeben. Der Energieausgleich erfolgt zunächst durch Energiezufuhr, lebende Systeme sind keine toten Systeme, sie müssen, um zu leben, laufend mit der Nahrung Energie aufnehmen. An ihrem Lebensende zerfallen sie, dann stimmt sowohl die Energie- als auch die Entropiebilanz, das heißt, sowohl der erste als auch der zweite Satz der Wärmelehre werden nicht verletzt.

Bild 5 Ort der Auswirkung: Neuron mit Synapsen 

Der Unterschied zwischen Computer und Lebewesen liegt erstens darin, dass wir beim Computer gegen die Wärme kämpfen, während im biologischen System, in lebenden Strukturen, die Wärme genutzt wird. Zweitens bilden sich bei Lebewesen durch das Bewusstsein Informationsblöcke und nicht nur Datenstrings, so dass man auch mit kleineren Energiewerten bei der Informationsverarbeitung auskommen kann. Allerdings treten bei neuronalen Netzen durch das Wärmerauschen auch Zufallsereignisse auf. Das Wärmerauschen stellt einen Zufallsgenerator dar, der die Vorgänge in den informationsverarbeitenden Systemen stört.

5. Das Wärmerauschen als Boltzmann-Vorhang 

Wenn Information aus der Geisteswelt auf unser Gehirn wirken kann, stellt sich die Frage, warum uns die Geisteswelt nicht offen steht, oder warum wir nicht so berühmt wie Gauß oder Einstein werden. Diese Fragen lassen sich leicht beantworten, wenn man bedenkt, um wie viel größer die thermische Energie im Vergleich zur Wirkung der Information ist. Nimmt man Zahlenwerte aus dem biologischen Bereich, so beträgt die Temperatur T etwa 310 K und die biologische Zeiteinheit t etwa 0,01 Sekunden. Die Wirkung vom Quant h und die von der thermischen Wirkung (Energie mal Zeit) kTt in biologischen Systemen unterscheiden sich um etwa 11 Größenordnungen, d. h. die Wärme wirkt etwa 100 Milliardenmal stärker als das Wirkungsquant h. Wir sind von der Geisteswelt durch einen Störnebel, der durch das Wärmerauschen erzeugt wird, getrennt, den man als Boltzmann-V orhang bezeichnen kann.

Da das Wärmerauschen einem Zufallsgenerator entspricht, treten bei seinem Empfang im Gehirn, wenn man sich auf Buchstaben und Zahlen beschränkt, diese Zeichen in zufälliger Folge auf. Dieser Zufallsgenerator erzeugt sehr viele irrelevante Textfolgen, aber auch Spitzenprodukte der Philologie, wie den Spruch: “Sein oder nicht sein“. Dieser Text entsteht rein zufällig, da jedoch bei einer Wahrscheinlichkeit von 10-10 sein Auftreten relativ selten ist, kann es sehr lange dauern bis er erscheint. Wenn man das Alter der menschlichen Hochkultur mit 3000 Jahren annimmt, dann könnte dieser Satz immerhin während dieser Zeit dreimal aufgetreten sein. Berücksichtigt man noch, dass es Milliarden von Menschen auf der Erde gibt, dann erscheint dieser Satz noch öfter. Nimmt man einen PC im GHz-Bereich, dann erscheint dieser Text alle 100 Sekunden. Solche Erscheinungen sind also relativ zu sehen.

Bild 6 Wärmerauschen als Boltzmann Vorhang: Die Signale verschwinden im Rauschen. 

Zweifelsohne spielt bei all diesen Vorgängen der Zufall bzw. die Wahrscheinlichkeit eine Rolle. Erklären wir alles mit dem Zufall, dann schließen wir uns der landläufigen Meinung in den Naturwissenschaften an. Heute gibt es viele Mitmenschen, die überzeugt sind, dass unsere Gedankenwelt ganz auf die materielle Welt beschränkt und nur durch sie bestimmt ist. Neue Gedanken entwickeln sich ausschließlich aus der materiellen Welt und dem Rauschen heraus, z. B. durch Selbstorganisation aus dem Chaos. Damit wäre Religion auch nur eine physiologische Erscheinung. Neurowissenschaftler haben auch gewissen religiösen Aktivitäten Hirnregionen zuordnen können, was nicht überraschend ist. Dass allerdings Kunstwerke wie die Zauberflöte oder Literaturwerke wie Goethes Faust, aber auch Offenbarungen in den Religionen rein zufällig entstanden sein sollen, stimmt doch den entschiedensten Vertreter eines Monismus nachdenklich.

Mit Zufall kann man viele Ereignisse plausibel machen. Diese Methode ist äußerst praktisch und wird in Naturwissenschaften und Technik mit Erfolg angewandt, denn sie entkoppelt die Ereignisse von menschlichen Zusammenhängen. Auf alle Fälle bietet der Zufall eine gute Schnittstelle, um Ereignisse in einer Gesellschaft relativ leidenschaftslos zu diskutieren. Die Erklärung über den Zufall ist für den einzelnen Menschen jedoch nicht immer befriedigend und sinnvoll, denn es kann sich aus persönlicher Sicht auch um Vorsehung handeln.

Es gibt bei der Informationsübertragung auch Grenzen. Wenden wir uns der Mathematik zu: π ist eine irrationale Zahl und kann daher in diesem System nicht auftreten, denn sie hat unendlich viele Stellen. Mit diesem etwas trivialen Beispiel möchte ich auf Grenzen hinweisen, die uns in der Mathematik und der Logik heute durchaus bekannt sind. Sie deuten an, dass das Fassungsvermögen unseres Geistes begrenzt ist. Warum können wir dann überhaupt einen Kreis in seiner idealen Form erfassen. Hier kann die oben aufgestellte Hypothese weiterhelfen, die behauptet, dass eine Geisteswelt auf unser Gehirn wirkt und dadurch neue Information in unserem Gehirn auftauchen und wirken kann.

Bild 7 Blick durch den Boltzmann-Vorhang nach der Shannon Formel: die Kanalkapazität wird auch beim stärksten Rauschen nicht Null. In der Gleichung bedeuten C die Kanalkapazität in Bit pro Sek., W die Kanalbreite (Bewusstseinsbreite), ld den Logarithmus Dualis, P die Energie des Senders und N die Leistung der Störer, z.B. des Wärmerauschens. 

In der Informationstheorie kann man diese Situation mit einem Informationskanal darstellen, der zu Übertragung vom Sender zum Empfänger dient und der durch das Wärmerauschen gestört ist. Nach den oben angegebenen Zahlenwerten sind die Störungen erheblich, denn das Rauschen ist für Lebewesen etwa 1011mal größer als die Informationssignale aus der Geisteswelt. Eigentlich dürfte man keine Information vom Sender empfangen können.

Es dürfte bei diesen starken thermischen Störungen überhaupt keinen Informationsaustausch geben. Dass das nicht so ist, zeigt schon das geniale Gesetz von Shannon für die Übertragungskapazität eines Kommunikationskanals (Bild 7). In diesem Fall hat der Kanal keine räumliche Ausdehnung. Bemerkenswert ist, das selbst bei großen Störungen noch Information übertragen werden kann, wenn auch wenig, denn der Ausdruck im Logarithmus ist stets größer Eins. Die Formel gilt unabhängig vom Medium, sie hängt nicht davon ab, ob Funkwellen, Schallwellen oder sonst ein Medium als Träger eingesetzt werden. Übrigens findet man diese Formel zu Recht nicht in einem Physikbuch.

Die Barriere des Boltzmann-Vorhanges, die als unüberwindbar erscheint, lässt sich durchaus überwinden. Die Informationsübertragung kann verbessert werden, wenn man folgende Punkte in Betracht zieht, die aus der Informationstechnik bzw. auch vom gesunden Menschenverstand her bekannt sind:

  1. Es müssen viele Neuronen für den Empfang zur Verfügung stehen, damit der Empfänger empfindlich genug wird. Dem Menschen stehen maximal ca. 1011 Neuronen zur Verfügung. (Durch das Bewusstsein sollten möglichst viele Neuronen auf den Empfang ausgerichtet werden, im technischen Bereich wird das durch das Parallelschalten vieler Empfänger erreicht, z. B. beim SETI-Projekt.)
  2. Die neuronalen Netze müssen empfangsbereit sein, was in der Regel durch Konzentration auf ein Gebiet in der Wissenschaft oder durch Meditation in Richtung Transzendenz erfolgen kann.
  3. Die neuronalen Netze sollten die richtige Strukturierung aufweisen, wenigstens näherungsweise. Daher können geistige Leistungen nicht so leicht vollbracht werden, denn nach dem Sprichwort “Vor dem Preis liegt der Fleiß“ müssen die neuronalen Netze erst durch Lernen präpariert werden, dass heißt, das empfangende Netz muss auf das Informationsgebiet vorbereitet werden. Dabei spielt die Architektur des menschlichen Gehirns eine wichtige Rolle.
  4. Die Informationspakete müssen relativ komplex sein und damit viele Bits umfassen, das heißt, ihre Wirkung muss ausreichend groß sein. Zusammenhängende Informationspakete gibt es nach unserem Wissen nur bei Lebewesen auf Grund ihres Bewusstseins. Das Bewusstsein könnte von einer Rückkopplung zwischen Information und den neuronalen Strukturen kommen. Die Frage “Was ist eigentlich Leben?“ ist derzeit nicht geklärt. Bis jetzt kann man lebende Strukturen nicht künstlich herstellen.
  5. Diese Kopplung kann bei Maschinen nicht wirksam werden, denn die Bits müssen wegen des Wärmerauschens mit relativ hoher Energie repräsentiert werden, so dass die Wirkung von Information daher auf sie viel zu schwach ist, um eine merkbare Beeinflussung zu bewirken. Daher haben wir es bei ihnen mit Datenstrings zu tun und nicht mit Informationsblöcken. Das ist der Grund, warum Maschinen kein Bewusstsein haben können.

Unter den genannten Bedingungen, die allgemein bekannt sind und auch praktiziert werden, stellen sich Erfolge in der Wissenschaft aber auch in der Meditation ein.

6. Schlussfolgerungen und Ausblick 

Diese Überlegungen bekräftigen die Hypothese, dass Information allgemein auf ein neuronales Netz wirken kann, das heißt, unser Gehirn kann Information aus der Geisteswelt empfangen. Das bedeutet, dass beispielsweise gewisse wissenschaftliche Erkenntnisse aus der Geisteswelt folgen, sie werden dort entdeckt. Der Mensch erhält die Idee der Freiheit aus der Geisteswelt und sie ist nicht ein Produkt der materiellen Strukturen, wie sie auch nicht in einem Text oder Bild enthalten ist. Die neuronale Struktur selbst ist nur ein Substrat, einerseits für die Erregung des ganzen Menschen, andererseits für einen Empfänger von Information aus der Geisteswelt. Neuronale Strukturen sind nur eine Basis wie Schrift auf dem Papier auch, sie sind weder die Freiheit noch die Liebe an sich. Diese These lässt sich verallgemeinern und auf die Welt der gesamten Geisteswissenschaften übertragen.

Aus dem vorgestellten Modell ergeben sich einige Schlussfolgerungen:

  1. Eine Wechselwirkung zwischen Geisteswelt und Gehirn ist aus dieser Sicht wahrscheinlich, messen lässt sich diese Wechselwirkung wahrscheinlich nicht, da die Effekte zu schwach sind und durch das Wärmerauschen überdeckt werden. Diese Hypothese lässt sich daher vermutlich naturwissenschaftlich nicht beweisen. Die Signale sind zu schwach, die Systeme zu komplex und es gibt darüber hinaus auch ethische Gebote, die wir halten sollten.
  2. Der Zufall scheint alles zu dominieren. Das ist jedoch Ansichtssache: In der Naturwissenschaft und Technik behandelt man Ereignisse als zufällig und entkoppelt sie damit von Personen. Dieses Vorgehen hat sich bewährt. Man kann Zufälle auch als Informationspakete interpretieren. Diese Annahme kann für den persönlichen Bereich durchaus sinnvoll sein, für den öffentlichen Bereich ist sie weniger zweckmäßig. Bei solchen Diskussionen sollte man trotzdem nach Armstrong jede Ausschließlichkeit vermeiden.
  3. Die Größenordnungen der Naturkonstanten: k und h, sowie die Höhe unserer Umgebungstemperatur T als auch die Anzahl der Neuronen in unserem Gehirn, sind interessanterweise so gewählt, dass uns die Geisteswelt weitgehend verborgen ist, unser Gehirn jedoch gerade so leistungsfähig ist, dass wir manche Informationen erahnen bzw. erfahren können. Die Zahlenwerte der Naturkonstanten kann man übrigens bis heute nicht herleiten, auch nicht begründen.
  4. Maschinen haben kein Bewusstsein und keinen Zugang zur Geisteswelt, da die bei ihnen verwendeten Schaltenergien viel größer als die Wirkung der Quanten sein müssen.

Zweifelsohne sind die hier vorgetragenen Gedanken zu einem Großteil spekulativ, aber sie scheinen vernünftig zu sein. Es stellt sich die Frage: Inwieweit bringen sie für die Naturwissenschaften und für die Menschen neue Erkenntnisse?

Wahrscheinlich kann man solche Hypothesen, wie die hier vorgestellte, nicht nachprüfen. Aber es gilt nach Roth: Zugelassen sind physikalische Zustände mit Eigengesetzlichkeiten, die nicht in allen Einzelheiten physikalisch erklärt zu werden brauchen, die jedoch physikalischen Gesetzen nicht widersprechen dürfen.

Auch hier rütteln die oben aufgestellten Hypothesen nicht an den eigentlichen Gebäuden der Naturwissenschaften, die ja solide errichtet sind und auch sorgfältig weitergebaut werden sollten, diese Hypothesen stellen auch nicht die Wahrheiten der Geisteswissenschaften, vor allem der Theologie, in Frage. Der Nutzen dieser Hypothesen liegt darin, dass sie manches verständlicher machen. Sie können helfen, Verständnislücken zwischen Naturwissenschaften und Kulturwissenschaften zu schließen und den Weg zu einem vernünftigen Weltbild zu ebnen. In diesem Sinne ist auch dieser Beitrag zu verstehen.

Wenn die hier vorgestellte Hypothese über die Wirkung von Information sich als richtig und weiterführend herausstellt, hat sie enorme Konsequenzen. Wirkt Information auf Materie, dann haben religiöse Gedanken einen Bezug zu einer transzendenten Welt, dann brauchen wir auch keine Entmythologisierung der Bibel, dann sind Wunder keine Legenden sondern Wunder.

Dazu liefert die Bekehrung des Apostels Paulus ein gutes Beispiel, wo in der Bibel berichtet wird, dass Paulus den Himmel offen sah, eine Stimme hörte und vom Pferd fiel. Hirnneurologen vermuten, dass Paulus einen epileptischen Anfall mit Wahnvorstellungen hatte. Religionswissenschaftler meinen, dass die Geschichte erfunden worden ist, um einen eindrucksvollen Anfang für seinen neuen Lebensabschnitt zu haben. Nach der oben dargestellten Hypothese wirkte Information im Gehirn des Apostels. Als diese in seinem Bewusstsein auftrat, erschrak er, fiel vom Pferd, hörte eine Stimme und sah den Himmel offen. Die Umstehenden sahen nicht viel, sie wunderten sich, heute wundert man sich nicht mehr, sondern man deutet das Ereignis einfach um, es sei denn, den Wissenschaften gelingt es, Denkmodelle zu entwickeln, die solche Erscheinungen verständlich erscheinen lassen.

Die hier vorgestellten Hypothesen geben auch eine plausible Vorstellung über den Schritt vom Wissen zum Glauben. Wissen ist Information, die sich materiell dokumentieren, auch in Form der Verknüpfungen in einem neuronalen Netz, und meistens auch maschinell verarbeiten lässt. Der Sprung zum Glauben geschieht über das Wissen, indem sich eine Kommunikation mit der Geisteswelt aufbaut. Wo wir selbst erfahren, dass wir Information aus der transzendenten Welt empfangen und in eine lebendige Wechselwirkung mit ihr treten, tritt das auf, was man als “Glauben“ bezeichnet.

Dieser Beitrag wurde auf der Jahresversammlung der Görres Gesellschaft in Regensburg am 25.09.2006 auf der Sitzung der Sektion für Naturwissenschaft und Technik gehalten. 

———————————————————————

Prof. Dr. Dr. Karl Goser studierte Elektrotechnik (Dipl.-Ing.) an der Universität Stuttgart und promovierte dort zum Dr. Ing. Anschließend war er einige Jahre bei Siemens in München tätig und folgte danach einem Ruf als o. Prof. an die FernUniversität Hagen und später an die Universität Dortmund, wo er bis zu seiner Emeritierung den Lehrstuhl für Bauelemente der Elektrotechnik inne hatte. Die Universität Granada verlieh ihm im Jahre 2006 die Ehrendoktorwürde (Dr. h.c.). 

Literaturhinweise 

K. Armstrong, Im Kampf für Gott, Fundamentalismus in Christentum, Judentum und Islam, Siedler 2000

L. Brillouin, Science and Information Theory, Academic Press 1962

J. C. Eccles, Wie das Selbst sein Gehirn steuert, Piper 1996 U. Eibach, Gott im Gehirn? Ich – eine Illusion?, R. Brockhaus 2006

K. Goser, Das Gravitationsgesetz und das Coulomb Gesetz 

aus Sicht der Informationstheorie, Frequenz 43,1989, 156

K. Goser, Vom Diesseits zum Jenseits, die sichtbare Welt und die Welt der Information, in A. Resch (Ed.), Aspekte der Paranormologie, die Welt des Außergewöhnlichen, Resch Verlag, Innsbruck, 1992, 565

H. Lyre, Informationstheorie, eine philosophisch-naturwissenschaftliche Einführung, W. Fink 2002

G. Roth, Das Gehirn und seine Freiheit, Vandenhoeck & Ruprecht 2006

C. Shannon and W. Weaver, The mathematical theories of communication, University of Illinois Press 1949

R. Sheldrake, Das Gedächtnis der Natur, Scherz Verlag 1991

K. Steinbuch, Automat und Mensch, Kybernetische Tatsachen und Hypothesen, Springer 1965

T. Stonier, Information and the Internal Structure of the Universe, Springer 1990

C.F. von Weizsäcker, Aufbau der Physik, Hanser 1985
A. Zeilinger, Einsteins Schleier, die neue Welt der Quantenphysik, C. H. Beck 2003

Verwandte Dateien

Kontakt