Next: Kritik und Fortführung Up: Wirkungen und Nachwirkungen Previous: Wirkungen und Nachwirkungen

Kritik und Fortführung der Einsteinschen Theorie

Neben den vielen haltlosen weltanschaulichen Reaktionen auf Einsteins Popularität hat es aber zum Glück auch sachlich fundierte, kongeniale Kritik durch Fachkollegen an seiner Theorie gegeben. Der ,,Natürlichkeit`` und ,,Vernünftigkeit`` der ART hat sie aber bis heute keinen Abbruch getan. Hentschel zählt sieben Entwicklungslinien für theoretische Alternativen zur ART auf:

1.
Materietheorien (Mie, Hilbert),
2.
ART ohne ,,allgemeine Relativität`` (Mie, Fock),
3.
homogene Raum-Zeit (Whitehead und Schüler),
4.
vereinheitlichte Theorien von Elektrizität und Gravitation (Weyl),
5.
verallgemeinerte Raum-Zeit-Geometrie (Eddington, Kaluza, Klein, Einstein),
6.
Skalar-Tensor-Theorie mit zeitabhängiger Gravitations,,konstante`` (Dirac, Jordan, Brans, Dicke),
7.
linearisierte Gravitationstheorien (Weyl, Belinfante, Swihart).

Ich möchte hier nur kurz auf die in den Punkten 1., 4. und 5. formulierten Alternativen eingehen, da sie bis heute verfolgt werden und Einstein ihnen auch selbst nachging. Der Physiker Gustav Mie suchte ab 1912 nach einer feldtheoretischen Erklärung der Materie, in der die Materie konsequent als Knotenstelle bzw. Singularität des Feldes verstanden werden sollte. 1915 griff der geniale Mathematiker David Hilbert den Mieschen Ansatz auf. Im Rahmen der Invariantentheorie leitete er mit den Methoden der Variationsrechnung nicht nur die Einsteinschen Feldgleichungen der Gravitation, sondern auch verallgemeinerte Maxwell-Gleichungen der Elektrodynamik aus einer ,,Weltfunktion`` ab. Die elektrodynamischen Erscheinungen hielt er dabei für Wirkungen der Gravitation. Hentschel zitiert Hilbert mit den Worten: Ich möchte im Folgenden - im Sinne der axiomatischen Methode - wesentlich aus zwei einfachen Axiomen ein neues System von Grundgleichungen der Physik aufstellen, die von idealer Schönheit sind, und in denen, wie ich glaube, die Lösung der Probleme von Einstein und Mie gleichzeitig enthalten ist. Im Gegensatz zu Mie suchte Einstein singularitätenfreie Lösungen seiner Feldgleichungen und im Unterschied zu Hilbert ging es ihm nicht nur um die formal-mathematische Schönheit der Theorie. Wenngleich auch Einstein seine vereinheitlichte Theorie von Elektrizität und Gravitation aus wenigen Axiomen herzuleiten trachtete, mußten die Axiome gleichwohl durch die in die Erfahrung sich einfühlende Intuition gewonnen, der Natur gleichsam abgelauscht worden sein. Und so kommentiert der Physiker 1916 den Mathematiker in einem Brief an Weyl: Der Hilbertsche Ansatz für die Materie erscheint mir kindlich, im Sinne des Kindes, das keine Tücken der Außenwelt kennt. ... Jedenfalls ist nicht zu billigen, wenn die soliden Überlegungen, die aus dem Relativitätspostulat stammen, mit so gewagten, unbegründeten Hypothesen über den Bau des Elektrons bzw. der Materie verquickt werden. Der Mathematiker Hermann Weyl entwickelte 1918 eine andere Variante zur Vereinheitlichung von Elektrizität und Gravitation. Die Verschiebung des Maßstabs $\xi^a$ entlang des Weges dxb innerhalb der durch den affinen Zusammenhang $\Gamma^{i}_{a b}$ bewirkten Längen- und Richtungsänderung $d\xi^i = \Gamma^{i}_{ab} \xi^a dx^b$ sah er in Verbindung mit dem elektrischen Viererpotential $\phi_i$. Seine ,,Weltmetrik`` $\Gamma_{i,rs}$ umfaßte dabei auch Terme, die das Potential $\phi_i$ enthielten:

\begin{displaymath}
\Gamma_{i,rs} = {1\over 2}\left[{{\delta g_{ir}}\over {\delt...
 ...er 2} \left({g_{ir}\phi_s + g_{is}\phi_r - g_{rs}\phi_i}\right)\end{displaymath}

Im Gegensatz zur ART waren die Metrikkoeffizienten $g_{\mu \nu}$ nicht empirisch ermittelbar. Ähnlich wie bei der elektrischen Spannung war nur ihr Verhältnis an verschiedenen Raumstellen bestimmbar. Diese ,,Eichfreiheit`` machte eine ,,Eichinvarianz`` der Feldgleichungen erforderlich, die zur Kovarianz der ART hinzukam. Auch Weyls mathematisch elegante Theorie scheiterte an der Erfahrung; denn sie war nicht vereinbar mit der weitgehend räumlich gleichförmigen Verteilung der Frequenzen des Lichtes im Universum. Trotz des Scheiterns der Weylschen Theorie versuchten sich die Physiker Eddington , Kaluza und Klein sowie auch Einstein selbst an einer vereinheitlichten Theorie von Elektrizität und Gravitation durch eine Verallgemeinerung der Raumzeit-Geometrie. Während Eddington über einen weiter verallgemeinerten affinen Zusammenhang spekulierte, wagten Kaluza und Klein die Annahme einer zusätzlichen kompakten fünften Dimension, die in ihren Wirkungen den elektrodynamischen Erscheinungen gleichkam. Einsteins verschiedene Versuche, durch Abwandlungen der Geometrie, eine vereinheitlichte Feldtheorie zu formulieren, können bei Pais nachgelesen werden. Bis zu seiner letzten, nichtsymmetrischen Feldtheorie, ist es ihm aber nicht einmal gelungen, zumindest die Maxwellschen Gleichungen für das freie elektromagnetische Feld aus seinen erweiterten Theorien der Gravitation herzuleiten. Die Physiker Wheeler und Wisner haben 1957 eine ,,Geometrodynamik`` ins Werk gesetzt, in der die Massen und Ladungen der Materie als topologische Knoten der Raumzeit angesehen werden können und insofern eine rein geometrische Feldtheorie formuliert, die ohne singuläre Feldquellen auskommt. 1965 hat dann der Mathematiker Penrose unter sehr allgemeinen und damit höchst wahrscheinlichen kosmologischen Randbedingungen bewiesen, daß Singularitäten der Raumzeit in der ART unvermeidbar seien. Derartige ,,schwarze Löcher`` müssen demnach im Universum weit verbreitet sein. Viele indirekte Hinweise konnten bisher gesammelt werden, auch auf ein schwarzes Loch im Zentrum unserer Milchstraße. Neben schwarzen Löchern sagt die ART auch die Existenz von Gravitationswellen voraus. Aus dem exakt gemessenen Energieverlust der Rotation von Doppelsternen umeinander, konnte mit der phantastischen Genauigkeit von 14 Dezimalstellen im Rahmen der ART indirekt auf eine Abstrahlung von Gravitationswellen geschlossen werden. Ein weiterer Triumpf der ART ist im GPS zu sehen, mit dem Objekte auf der Erde auf weniger als einen Meter genau geortet werden können. Das erfordert in der Satellitensoftware Korrekturrechnungen, die mit der ART auf 12 Dezimalstellen genau ausgeführt werden müssen. Neben ihrer herausragenden Bedeutung für die Kosmologie hat sich die ART damit auch in einem praktisch nützlichen Alltagsbereich bewährt. Aber welcher Fahrzeuglenker, in der Luft, zu Wasser oder auf dem Lande, ist sich dessen schon bewußt?

Die Lebenswirksamkeit des Kometenschweifs der vielen Dezimalstellen in den Berechnungen der quantitativen Naturbeschreibung zeigen auch die Folgerungen der Quantentheorie, bildet sie doch die Grundlage der Elektronik, Nanotechnologie und Informationstechnik. In der technischen Anwendung des GPS sind ART und QM nicht theoretisch fundiert, aber auf praktisch nützliche Weise vereint. Funktionierende technische Anwendungen genügten natürlich nicht den visionären kosmologischen Ansprüchen des weltweisen Genies nach einem grundlegenden Verständnis der vereinheitlichten Feldtheorie aus ersten Prinzipien. Einstein hatte bereits einige Jahre darüber nachgedacht, als er der ,,Preußischen Akademie`` 1923 einen Artikel vorlegte mit der Frage: Bietet die Feldtheorie Möglichkeiten für die Lösung des Quantenproblems? Seine Antwort läßt nicht lange auf sich warten: Ganz gewiß, wir müssen nur die Feldvariablen durch Feldgleichungen ,,überbestimmen``. So wie in seiner Gravitationstheorie und in der Maxwellschen Elektrodynamik sollten auch in der vereinheitlichten Feldtheorie aller Naturerscheinungen die Ereignisse durch Differentialgleichungen im Einklang mit ihren Anfangsbedingungen auf einer raumartigen Fläche kausal bestimmt sein. Die diskreten Qauntenbedingungen hatten sich in dieses Schema einzufügen. Für sein Programm der Überkausalität durch überbestimmte Feldvariable fordert der Klassiker folgende Voraussetzungen:

1.
Allgemeine Kovarianz wie in der ART,
2.
Übereinstimmung mit Gravitationstheorie und Elektrodynamik,
3.
Statische, sphärisch symmetrische Lösungen für die Materiegleichungen der Elementarteilchen, die die Felder überbestimmen.

Unter diesen Voraussetzungen dürfen wir hoffen, daß durch diese Gleichungen auch das mechanische Verhalten der singulären Punkte (Elektronen) mitbestimmt wird, daß auch die Anfangszustände des Feldes und der singulären Punkte einschränkenden Bediungunen unterworfen wird. Im Gegensatz zu seinen (modernen) Fachkollegen forderte der Klassiker Einstein keine Abschwächung, sondern eine Verstärkung des Kausalprinzips. 1929 hebt er in Forschungen und Fortschritte gegenüber der ,,Subkausalität`` einer Beschränkung auf statistische Gesetze die ,,Überkausalität`` seiner Feldtheorie hervor: Das Naturgeschehen scheint so weitgehend determiniert zu sein, daß nicht nur die zeitliche Folge, sondern auch noch der Anfangszustand weitgehend gesetzlich gebunden ist. Diesem Gedanken glaubte ich durch Aufsuchen überbestimmter Systeme von Differentialgleichungen Ausdruck geben zu müssen. Mit der Aufgabe, die Feldgleichungen für das totale Feld zu finden, ist der Physiker allerdings Zeit seines Lebens nicht fertig geworden. Die Suche nach einer vereinheitlichten Feldtheorie aus kontinuierlich-deterministischer Elektrodynamik und Gravitationstheorie sowie diskret-statistischer Thermodynamik und Quantentheorie ist bis heute Gegenstand intensiver Forschungen geblieben. Als kongeniale Nachfolger Albert Einsteins können die beiden amerikanischen Physiker Richard Feynman und Steven Weinberg angesehen werden. Beide gingen in ihren Vereinheitlichungsbemühungen aber nicht von der ART, sondern von der QM aus.

Ansätze zu einer Verbindung von Thermodynamik und Quantentheorie mit der SRT hatte Einstein selbst bereits in seiner berühmten Trilogie von 1905 formuliert. Den stochastischen Prozeß der Brownschen Bewegung führte er auf eine unterliegende Schicht deterministischer Ordnung zurück, indem er sich der Boltzmannschen Beziehung zwischen Energie E und Temperatur T bediente: E = kT. Aus der speziell-relativistischen Invarianz der Elektrodynamik folgerte er das übereinstimmende Transformationsverhalten für die Energie E und die Frequenz $\nu$ eines Lichtkomplexes: $E = h\nu$. Und aus der Verbindung von Thermodynmik und Quantentheorie in seiner dritten Arbeit von 1905 hatte Einstein auf die Existenz von Lichtquanten geschlossen. In seiner Untersuchung Zur Quantentheorie der Strahlung, 1917 in der Phys. Zschr. veröffentlicht, entwickelte das Genie nicht nur eine erste LASER-Theorie, sondern sprach den Lichtquanten neben der Energie $E = h\nu$ auch einen Impuls $p = h\nu /c$ zu. Und wiederum sieht Einstein nur einen Bezug der Quantentheorie zur Thermodynamik, nicht aber zur Relativitätstheorie, obwohl der Zusammenhang mit seiner berühmten Formel zur Energie-Massen-Äquivalenz doch so nahe gelegen hätte: E = m c2. Auch Pais fragt sich in seiner Einstein-Biographie: Warum wird nur die Thermodynamik erwähnt, warum nicht auch die Relativität? Seine Antwort: Für Einstein galt die Relativität in einem solchen Ausmaß als erwiesene Wahrheit, daß ihm die phänomenologische und provisorische Quantentheorie noch nicht reif genug schien, vielleicht auch noch nicht wert war, mit Argumenten aus der Relativitätstheorie in Kontakt gebracht zu werden.

Den allgemeinen Zusammenhang zwischen Energie und Impuls in der Phase einer Materiewelle stellte 1923 der französische Physiker Louis de'Broglie her. Seine Dissertation schien dem Gutachter Langevin derart gewagt, daß er Einstein um eine Empfehlung bat. Aber auch nachdem der de'Broglies quantentheoretische Folgerungen aus seiner SRT gelesen und für bedeutsam gehalten hatte, verfolgte er den Zusammenhang nicht weiter. De'Broglie bekam 1929 für seine Einführung von Materiewellen den Nobelpreis (den zur gleichen Zeit auch Thomas Mann bekam). Im Vierervektor-Formalismus läßt sich aus der Gleichheit der ersten Komponente (zwischen Energie E und Frequenz $\nu$) ganz allgemein auf die Gleichheit der weiteren Komponenten (zwischen Impuls $\vec{p}$ und Wellenvektor $\vec{k}$) schließen:

\begin{displaymath}
(p_{\mu}) = (E/c, \vec{p}) = \hbar (\omega /c, \vec{k})\end{displaymath}

Mit der Wirkung $S = \hbar \Phi$, dem Impuls $\vec{p} = \hbar \vec{k}$ und der Energie $E = \hbar \omega = h \nu$ gilt dabei für die Phase $\Phi = \vec{k} \vec{r} - \omega t$ der Materiewelle $\Psi = R e^{i\Phi}$.

Eine erste Vereinheitlichung von SRT und QM hinsichtlich der elektromagnetischen Wechselwirkung gelang 1927 Paul Dirac mit der relativistisch-invarianten Formulierung einer Feldgleichung der Materie. Bereits 1933 erhielt er für seine Elektronentheorie den Nobelpreis . Feynman wurde die Auszeichnung 1965 zugesprochen für seinen Beitrag zur Ausarbeitung der Diracschen Theorie zur Quantenfeldtheorie der Elektrodynamik, der Quantenelektrodynamik (QED). In seiner Dirac Memorial Lecture von 1986 erinnert er zusammenfassend an Diracs Triumpf der Vorhersage von Antimaterie: If we insist that particles can only have positive energies, then you cannot avoid propagation outside the light cone. If we look at such propagation from a different frame, the particle is traveling backwards in time: it is an antiparticle. Then, looking at the idea that the total probability of something happening must be one, we saw that the extradiagrams arising because of the existence of antiparticles and pair production implied Bose statistics for spinless particles. When we tried the same idea on fermions, we saw that exchanging particles give us a minus sign: they obey Fermi statistics. The general rule was that a double time reversal is the same as a 360o rotation. This gave us the connection between spin and statistics and the Pauli exclusion principle for spin 1/2. That contains everything, and the rest was just elaboration. Zwei Annahmen sind es also, aus der sich im Rahmen der SRT die elektromagnetische Wechselwirkung zwischen geladenen Teilchen (Fermionen) durch Austausch von Photonen (Bosonen) verstehen läßt: Die Positivität der Energie und eine Wahrscheinlichkeit von Eins dafür, daß sich überhaupt etwas ereignet. Wenngleich die QED heute ähnlich phantastisch genaue Vorhersagen gestattet wir die ART, hätte Einstein sie gleichwohl nicht als Grundlagentheorie anerkannt, da sie die Wahrscheinlichkeit zu ihren ersten Prinzipien zählt. Feynman hatte keine grundsätzlichen Probleme damit, das Wahrscheinlichkeitskonzept der QM auf die QED zu übertragen; schließlich hatte er mit seiner ,,Pfadintegralmethode`` einen Weg gefunden, aus den gewichteten Zustandswahrscheinlichkeitsdichten der QM durch Aufsummierung aller möglichen Teilchenwege die jeweilige Wahrscheinlichkeitsverteilung ihrer wirklichen Wege quasi klassisch zu verstehen. In seinen 1962/63 gehaltenen und 1995 veröffentlichten Feynman Lectures on Gravitation hat er dann in Analogie zur QED näherungsweise eine Quantentheorie der Gravitation formuliert. Ausgehend von der Minkowski-Metrik $\eta_{\mu \nu}$ entwickelt Feynman eine nur angenäherte Riemann-Metrik $g_{\mu \nu}$, indem er $\eta_{\mu \nu}$ um einen ,,Störungsterm`` $h_{\mu \nu}$ erweitert:

\begin{displaymath}
g_{\mu \nu} = \eta_{\mu \nu} + h_{\mu \nu}\end{displaymath}

Dabei gelangt er zu der Folgerung: Gravity is that field which corresponds to gauge invariance with respect to displacement transformation. Im Gegensatz zu Einstein ist er nicht durch ,,Geometrisierung``, sondern durch ,,Quantisierung`` zur Ableitung der Einsteinschen Feldgleichungen gelangt. D.h. im Vergleich mit der QED, in der elektrisch geladene und massebehaftete Elektronen (und Positronen) durch Austausch von ungeladenen und masselosen Photonen (mit Spin 1) wechselwirken, hat er im Rahmen der Quantenfeldtheorie (QFT) eines masselosen Spin-2-Austauschteilchens, das als Graviton zwischen den Energie-Impuls-Strömen wechselwirkt, eine Quantentheorie der Gravitation (QG) formuliert. In der QED ist es die von Weyl (in anderem Zusammenhang) eingeführte Eichinvarianz , die aus der reinen Diracschen Theorie des Materiefeldes eine Wechselwirkungstheorie werden läßt. D.h. die Forderung lokaler Eichinvarianz des Materiefeldes (Dirac-Gleichung) hat einen Wechselwirkungsstrom (Kopplungsterm) und das Photonenfeld (Maxwell-Gleichung) zur Folge. Der Eichinvarianz der QED entspricht die Koordinateninvarianz der ART, in der das Materiefeld (Geodätengleichung) über einen Wechselwirkungsterm mit dem Gravitonenfeld (Einstein-Gleichung) verkoppelt wird. Das Äquivalenzprinzip sichert dann die Übereinstimmung der Austauschströme bzw. Energieflüsse. Weinberg gründet 1972 in seinem Buch Gravitation and Cosmology die Darstellung der ART auf den allgemeinen Zusammenhang zwischen Relativität (Lorentz-Invarianz) und Gravitation (Äquivalenzprinzip): It seems to be impossible to construct any Lorentz-invariant quantum theory of particles of mass zero and spin two, unless the corresponding classical field theory obeys the Principle of Equivalence. Im Gegensatz zu Einstein und im Einklang mit Feynman entwickelt er dann die ART auf der Grundlage des Äquivalenzprinzips. Im Anschluß an Weinberg hat der konstruktive Mathematiker und Philosoph Paul Lorenzen 1976 eine Revision der Einsteinschen Revision gefordert und 1978 in seiner Theorie der technischen und politischen Vernunft veröffentlicht. Nach Lorenzen wird durch die ART nicht die Geometrie der Kosmologie revidiert, sondern die Gravitationstheorie. D.h. die Gravitationsfelder der ART sind keine (physischen) Kraftfelder, sondern bloß (theoretische) Transformationsvorschriften; die zu jedem Punkt angeben, durch welche Koordinatentransformation man lokal ein Inertialsystem erhält. Die Geometrie folgt dabei aus dem Äquivalenzprinzip und nicht umgekehrt wie bei Einstein. Auch die ART ist damit keine (klassische) Seinslehre mehr, wie von Einstein intendiert, sondern konstruktive Erkenntnistheorie wie schon die positivistische QM Heisenbergs. Offen bleibt dabei allerdings die Frage, warum die Transformationen überhaupt möglich sind ...

Die modernen Quantentheoretiker haben beide klassischen Relativitätstheorien ihrer positivistischen Erkenntnistheorie (zumindest näherungweise) anzupassen vermocht. Oder sollte man gar literarisch von Anverwandlung sprechen? Die Aufgabe des klassischen Realitätsprinzips ermöglichte es ihnen, auch Einsteins im EPR-Paradoxon erhobenen Vorwurf der Unvollständigkeit der Heisenbergschen QM zu begegnen. Ironischerweise hielten sie dabei am (relativistischen) Lokalitätsprinzip fest, obwohl Vollständigkeit und Realismus der Quantentheorie auch unter der Voraussetzung der Nichtlokalität zu haben war, was John Bell erstmals 1964 mit seiner bahnbrechenden Ungleichung bewiesen hatte. Seitdem ist in ausgeklügelten Experimenten vielfach die quasi instantane Fernwirkung zwischen räumlich getrennten Quantensystemen nachgewiesen worden. Die nichtlokale ,,Verschränkung`` von Quantenzuständen konnte sogar schon kilometerweit in Lichtleitern zur Teleportation genutzt werden. Darüber hinaus sind erste quantenparallele Lösungen nach Algorithmen gelungen, die klassisch praktisch unlösbare Probleme zu bearbeiten versprechen. Die Vision eines teleportativ vernetzten Quantencomputers dürfte noch in diesem Jahrhundert realisiert werden.

In den Quantenfeldtheorien der fundamentalen Wechselwirkungen kommt die Nichtlokalität nur noch als ,,emergentes`` Phänomen in speziell präparierten Versuchsanordnungen oder technischen Anwendungen vor. Sie wird nicht als grundlegendes Naturprinzip verstanden. Dabei wäre sie durchaus vereinbar mit der schon 1911 von Planck angenommenen Existenz eines Nullpunktsfeldes , das instantan im gesamten Universum wirksam sein und auch die kosmologische Konstante $\Lambda$ in der Einsteinschen Feldgleichung zur Folge haben könnte. Das Nullpunktsfeld wäre darüber hinaus als unterliegende Struktur deterministischer Ordnung denkbar, aus der die Quantenstatistik in ähnlicher Weise gewonnen werden könnte wie die Thermostatistik der klassischen Physik. Einen derartigen Weg in eine quasi neoklassische Physik hat in den letzten Jahren der holländische Physiker 't Hooft beschritten und knüpft damit an die Einsteinsche Arbeit zur Brownschen Bewegung von 1905 an. In dem Tagungsband Quantum (Un)speakable leitet er seine Untersuchung über den (Pre-)Determinism at the Planck scale wie folgt ein: In deterministic theories, one can start from a set of ontological states to formulate the dynamical laws, but these may not be directly observable. Observable are only equivalence classes of states, and these will span a basis of ,,beables``, to be promoted to an orthonormal basis of Hilbert Space. After transforming this basis to a more conventional basis, a theory may result that is fundamentally quantum mechanical. It is conjectured that the quantum laws of the real world may be understood from exactly such a procedure. Auf dem Planckniveau in der Größenordnung von $10^{-35}\, m$ mag noch einiges verborgen liegen, auch eine deterministische Struktur, die sich auf höheren Ebenen als Quantenstatistik äußert, so daß die beables durch die changeables der QM zu ergänzen wären.

Eine Herleitung der Quanten- und Gravitationstheorie aus der SRT, in der die Quantenstatistik aus der Wiedereinführung eines ,,Äthers`` folgt, hat kürzlich Gerhard Grössing vorgeschlagen. Dabei diskutiert er auch die Beziehung des Äthers zum Nullpunktsfeld und knüpft in direkter Weise an die Arbeit Einsteins zur SRT von 1905 an. Im Rahmen der SRT ist die Lichtgeschwindigkeit c eine Invariante, die aus dem Relativitätsprinzip gefolgert werden kann und nicht als Postulat angenommen werden muß. Das hatte schon Einstein bemerkt. Grössing folgert in seiner Quantenkybernetik eine weitere Invariante aus dem speziellen Relativitätsprinzip. Denn aus der bereits von Minkowski 1909 untersuchten Variation $\delta$ des Linienelements ds2 ergibt sich mit $\delta (ds^2) = 0$:

\begin{displaymath}
c^2 dt \delta t - d\vec{r} \delta \vec{r} = 0\end{displaymath}

Damit folgt als weitere Invariante

\begin{displaymath}
c^2 = {{d\vec{r}\over dt} {{\partial \vec{r}}\over{\partial t}}} =: {\bf v u}\end{displaymath}

D.h. das Quadrat der Lichtgeschwindigkeit c ist das (invariante) Produkt aus der ,,Teilchengeschwindigkeit`` v und der ,,Phasengeschwindigkeit`` u einer Materiewelle $\Psi = R e^{i\Phi}$. Für ein Teilchen mit Ruhemasse ist v < c, so daß u > c wird. Strebt nun v gegen Null, wächst u über alle Maßen ins Unendliche, was die typisch instantanen bzw. nichtlokalen Effekte der QM verständlich macht. Grössing leitet in Verbindung mit dem Äther auch die für Quantensysteme charakteristischen Interferenzen in den Wahrscheinlichkeitsverteilungen bei Streuexperimenten ab. Für die Wahrscheinlichkeit $P(\vec{r},t)$ erhält er mit dem Normierungsfaktor N und den jeweiligen Summen über die möglichen Teilchenwege:

\begin{displaymath}
P(\vec{r},t) = N\left<\sum{v_i(\vec{r},t)} \sum{u_i(\vec{r},t)}\right\gt\end{displaymath}

Grössing kommentiert: To make use of expressions for probabilities of this type, the only ingredients necessary to perform the calculations are a) the assumption of an aether implying de Broglie phase waves extending over the whole experimental setup and b) the immediate implication of the principle of relativity relating the velocity u of these phase waves to the velocity v of the ,,particles``. Die den stochastischen Prozessen unterliegende Schicht deterministischer Ordnung ist damit im relativistisch-invarianten Äther zu sehen, der auch zum Nullpunktsfeld taugen mag, wie es Planck seinerzeit vorschwebte. Aus der Invarianten $c^2 = \bf{v u}$ folgert Grössing die Beziehung

\begin{displaymath}
{dv \over v} = -{du \over u},\end{displaymath}

womit er seine Quantenkybernetik begründet; denn es handele sich um eine circularly causal relation between v and u: relative changes of the one and relative changes of the other are exactly balanced, such that quantum systems can considered as feedback systems that dynamically relate ,,particles`` to their ,,environments`` (,,contexts``), and vice versa. Die starke Form des Äquivalenzprinzips folgert Grössing im Rahmen der SRT aus den Gleichungen:

\begin{displaymath}
{{\delta [\Delta {\omega}^2(t)]} \over {{\omega}^2}} = 
 {{\...
 ...[\Delta m^2(t)]} \over {m^2}} = 
 {{\delta v^2(t)} \over {c^2}}\end{displaymath}

Und kommentiert: Thus, the change of mass in one frame corresponds to an acceleration v'(t) of the particle of mass m in the reference frame that has moved with constant speed v before insertion of new mass elements (i.e., before disturbance of the surrounding spacetime geometry through new Huygens sources).

Nachdem er so im Äther-Modell seiner Quantenkybernetik in natürlicher Weise das Äquivalenzprinzip gefolgert hat, wagt er sich gar an die Herleitung der relation between the mass of an object and its influence on the spacetime metric of its surroundings. That is, we are going to discuss the cybernetics on the macroscopic level. Diese Ableitung der Einsteinschen Feldgleichung macht die Gravitation zu einem reinen Quantenphänomen. Ein Weg, der dem Klassiker Einstein wenig behagt hätte; denn auch an der bereits von Heisenberg und Pauli zur Quantenfeldtheorie weiter entwickelten QM konnte der Klassiker kein Gefallen finden.

Die Gravitation als fundamentale Wechselwirkung scheint nur mit der Quantenstatistik vereinbar zu sein, gleichwohl aber auf der realistischen Basis eines deterministisch-kausalen Nullpunktsfeldes oder Äthers, der instantan das gesamte Universum erfüllt. Über die faszinierenden Konsequenzen dieser Varianten der QG in der Perspektive der Science Fiction berichtet Nahin in seinem Buch: Time Machines. Das astronomische Energie-Reservoir des Nullpunktsfeldes wird sich vielleicht einmal mittels warp drive zum ,,Raumzeitsurfen`` nutzen lassen. Und die Struktur des Äthers sollte in ferner Zukunft so etwas wie eine ,,kosmische Supraleitung`` ermöglichen. Neuere Untersuchungen deuten zudem darauf hin, daß sich das Universum mit seiner Ausdehnung immer schneller ,,aufbläht``. Ein Effekt, der ebenfalls dem Nullpunktsfeld erwachsen könnte und zur Folge hätte, daß der Kosmos sich noch bis in alle Ewigkeit auszudehnen vermöchte. Das wäre allerdings eine zutiefst nihilistische Perspektive, da sich die Cluster und Galaxien ebenso wie die Sterne und Planeten mit der Zeit in der endlosen Einöde des unendlichen Alls verlören ...


Next: Kritik und Fortführung der Up: Wirkungen und Nachwirkungen Previous: Wirkungen und Nachwirkungen
Ingo Tessmann
6/9/2003