von Werner Heisenberg
(aus UNIVERSITAS 1-2/1988)
Prof. Dr. Werner Heisenberg (1901 bis 1976). Studium der Physik in München und Göttingen. 1924/1925 bei Niels Bohr in Kopenhagen. 1927 ordentlicher Professor für Theoretische Physik in der Universität Leipzig. Für seine grundlegenden Arbeiten zur Quantenmechanik erhielt Heisenberg 1933 (für 1932) den Nobelpreis für Physik. 1942 Berufung an die Universitit Berlin. Direktor im Kaiser-Wilhelm-Institut für Physik. 1946 Errichtung des Max-Planck-Instituts für Physik in Göttingen. 1958 Übersiedlung mit dem Institut nach München (Max-Planck-Institut für Physik und Astrophysik). Mitglied und zeitweise Vorsitzender des Wissenschaftlichen Ausschusses des Internationalen Atomphysik-Instituts in Genf (CERN). Von 1953 bis 1975 Präsident der Alexander-von-Humboldt-Stiftung. 1966 bis 1972 Vizepräsident der Max-Planck-Gesellschaft.
Zu den interessantesten allgemeinen Wirkungen der modernen Atomphysik gehören die Veränderungen, die sich unter ihrem Einfluß am Begriff der Naturgesetzlichkeit vollzogen haben.
Es ist in den letzten Jahren oft davon gesprochen worden, daß die moderne Atornphysik das Gesetz von Ursache und Wirkung aufhebe oder wenigstens teilweise außer Kraft setze, daß man also nicht mehr von einer naturgesetzlichen Bestimmtheit der Vorgänge im eigentlichen Sinne reden könne. Gelegentlich wird auch einfach gesagt, das Prinzip der Kausalität sei mit der modernen Atomlehre nicht vereinbar. Nun sind solche Formulierungen stets unklar, solange die Begriffe Kausalität oder Gesetzlichkeit nicht genügend geklärt sind. Ich möchte daher im folgenden zunächst kurz über die historische Entwicklung dieser Begriffe sprechen. Dann will ich auf die Beziehungen eingehen, die sich zwischen der Atomphysik und dem Prinzip der Kausalität schon lange vor der Quantentheorie ergeben haben. Anschließend will ich die Folgen der Quantentheorie erörtern und von der Entwicklung der Atomphysik in den allerletzten Jahren sprechen. Von dieser Entwicklung ist bisher wenig in die Öffentlichkeit gedrungen, aber es sieht doch so aus, als ob auch von ihr Rückwirkungen ins philosophische Gebiet zu erwarten wären.
Zur historischen Entwicklung der Begriffe
Die Verwendung des Begriffs Kausalität für die Regel von Ursache und Wirkung ist historisch noch relativ jung. In der früheren Philosophie hatte das Wort causa eine viel allgemeinere Bedeutung als jetzt. Zum Beispiel wurde in der Scholastik im Anschluß an Aristoteles von vier Formen der "Ursache" gesprochen. Dort wird die causa formalis genannt, die man etwa heute als Struktur oder als den geistigen Gehalt einer Sache bezeichnen würde; die causa materialis, d. h. der Stoff, aus dem eine Sache besteht; die causa finalis, der Zweck, zu dem eine Sache geschaffen ist, und schließlich die causa efficiens. Nur die causa efficiens entspricht etwa dem, was wir heute mit dem Worte Ursache meinen.
Die Veränderung des Begriffs causa zu dem heutigen Begriff Ursache hat sich im Laufe der Jahrhunderte vollzogen, im inneren Zusammenhang mit der Veränderung der ganzen von den Menschen erfaßten Wirklichkeit und mit der Entstehung der Naturwissenschaft beim Beginn der Neuzeit. In demselben Maße, in dem der materielle Vorgang an Wirklichkeit gewann, bezog sich auch das Wort causa auf dasjenige materielle Geschehen, das dem zu erklärenden Geschehen vorherging und dies irgendwie bewirkt hat. Daher wird auch bei Kant, der ja im Grunde doch an vielen Stellen einfach die philosophischen Konsequenzen aus der Entwicklung der Naturwissenschaften seit Newton zieht, das Wort Kausalität schon so formuliert, wie wir es aus dem 19. Jahrhundert gewohnt sind: Wenn wir erfahren, daß etwas geschieht, so setzen wir dabei jederzeit voraus, daß etwas vorhergehe, woraus es nach einer Regel folgt."
Begriffseinengung
So wurde allmählich der Satz von der Kausalität eingeengt und schließlich gleichbedeutend mit der Erwartung, daß das Geschehen in der Natur eindeutig bestimmt sei, daß also die genaue Kenntnis der Natur oder eines bestimmten Ausschnittes aus ihr wenigstens im Prinzip genüge, die Zukunft vorauszubestimmen. So war eben die Newtonsche Physik geartet, daß man aus dem Zustand eines Systems zu einer bestimmten Zeit die zukünftige Bewegung des Systems vorausberechnen konnte. Die Anschauung, daß dies in der Natur grundsätzlich so sei, wurde vielleicht am allgemeinsten und verständlichsten von Laplace ausgesprochen in der Fiktion eines Dämons, der zu einer gegebenen Zeit die Lage und Bewegung aller Atome kennt und dann in der Lage sein müßte, die gesamte Zukunft der Welt vorauszuberechnen. Wenn man das Wort Kausalität so eng interpretiert, spricht man auch von "Determinismus" und meint damit, daß es feste Naturgesetze gibt, die den zukünftigen Zustand eines Systems aus dem gegenwärtigen eindeutig festlegen.
Die Vorstellungen der Atomphysik
Die Atomphysik hat von Anfang an Vorstellungen entwickelt, die eigentlich nicht zu diesem Bild passen. Sie widersprechen ihm zwar nicht grundsätzlich, aber die Denkweise der Atomlehre mußte sich von Anfang an von der des Determinismus unterscheiden. Schon in der antiken Atomlehre von Demokrit und Leukipp wird ja angenommen, daß die Vorgänge im großen dadurch zustande kommen, daß viele unregelmäßige Vorgänge im kleinen geschehen. Dafür, daß dies grundsätzlich so sein kann, gibt es unzählige Beispiele aus dem täglichen Leben. Es genügt etwa für den Landwirt festzustellen, daß eine Wolke sich niederschlägt und den Boden bewässert, und niemand braucht dabei zu wissen, wie die Wassertropfen im einzelnen gefallen sind. Oder ein anderes Beispiel: Wir wissen genau, was wir mit dem Wort Granit meinen, auch wenn die Form und die chemische Zusammensetzung der einzelnen kleinen Kristalle, ihr Mischungsverhältnis und ihre Farbe nicht genau bekannt sind. Wir benutzen also immer wieder Begriffe, die sich auf das Verhalten im großen beziehen, ohne uns dabei für die Einzelvorgänge im kleinen zu interessieren. (EH: und beziehen ohne Umstände ("selbstverständlich") die Kleinen mit ein)
In Wirklichkeit gibt es nur die Atome und den leeren Raum ...
Dieser Gedanke des statistischen Zusammenwirkens vieler kleiner Einzelereignisse ist schon in der antiken Atomlehre die Grundlage ihrer Erklärung der Welt gewesen und zu der Vorstellung verallgemeinert worden, daß alle sinnlichen Qualitäten der Stoffe indirekt hervorgerufen würden durch die Lagerung und Bewegung der Atome. Schon bei Demokrit steht der Satz: "Nur scheinbar ist ein Ding süß oder bitter nur scheinbar hat es eine Farbe, in Wirklichkeit gibt es nur die Atome und den leeren Raum." Wenn man die sinnlich wahrnehmbaren Vorgänge in dieser Weise durch das Zusammenwirken sehr vieler Einzelvorgänge im kleinen erklärt, so folgt fast zwangsläufig, daß man die Gesetzmäßigkeiten in der Natur auch nur als statistische Gesetzmäßigkeiten betrachtet. Zwar können auch statistische Gesetzmäßigkeiten zu Aussagen führen, deren Grad von Wahrscheinlichkeit so hoch ist, daß er an Sicherheit grenzt. Aber im Prinzip kann es stets Ausnahmen geben.
Statistische Gesetzmäßigkeiten als Grundlage praktischen Handelns
Der Begriff der statistischen Gesetzmäßigkeit wird häufig als widerspruchsvoll empfunden. Man sagt etwa, man könne sich vorstellen, daß die Vorgänge in der Natur gesetzmäßig bestimmt seien, oder auch, daß sie völlig ungeordnet abliefen, aber unter statistischer Gesetzmäßigkeit könne man sich nichts vorstellen. Demgegenüber muß man daran erinnern, daß wir im täglichen Leben auf Schritt und Tritt mit statistischen Gesetzmäßigkeiten zu tun haben, die wir zur Grundlage unseres praktischen Handelns machen. Wenn etwa der Techniker ein Kraftwerk baut, so rechnet er mit einer mittleren jährlichen Niederschlagsmenge, obwohl er keine Ahnung davon haben kann, wann es regnen wird und wieviel.
Statistische Gesetzmäßigkeiten bedeuten in der Regel, daß man das betreffende physikalische System nur unvollständig kennt. Das bekannteste Beispiel ist das Würfelspiel. Da keine Seite des Würfels vor einer anderen ausgezeichnet ist und wir daher in keiner Weise vorhersagen können, auf welche Seite er fallen wird, kann man annehmen, daß unter einer sehr großen Zahl von Würfen gerade der sechste Teil etwa fünf Augen hat. Mit dem Beginn der Neuzeit hat man schon früh versucht, das Verhalten der Stoffe durch das statistische Verhalten ihrer Atome nicht nur qualitativ, sondern auch quantitativ zu erklären. Schon Robert Boyle hat gezeigt, daß die Beziehungen zwischen Druck und Volumen in einem Gas verstanden werden können, wenn man den Druck durch die vielen Stöße der einzelnen Atome auf die Wand des Gefäßes erklärt. In ähnlicher Weise hat man die thermodynamischen Erscheinungen erklärt, indem man annahm, daß die Atome sich in einem heißen Körper heftiger bewegen als in einem kalten. Es ist gelungen, dieser Aussage eine mathematisch quantitative Form zu geben und damit die Gesetze der Wärmelehre verständlich zu machen.
Statistische Mechanik
Ihre endgültige Form hat diese Verwendung statistischer Gesetzmäßigkeiten in der zweiten Hälfte des vorigen Jahrhunderts durch die sogenannte statistische Mechanik erhalten. In dieser Theorie, die ja in den Grundgesetzen einfach von der Newtonschen Mechanik ausgeht, untersuchte man die Folgerungen, die sich aus einer unvollständigen Kenntnis eines komplizierten mechanischen Systems ergeben. Man gab also prinzipiell den reinen Determinismus nicht auf und stellte sich vor, daß im einzelnen das Geschehen nach der Newtonschen Mechanik vollstandig bestimmt sei. Aber man fügte den Gedanken hinzu, daß die mechanischen Eigenschaften des Systems nicht vollständig bekannt seien. Es ist Gibbs und Boltzmann gelungen, die Art der unvollständigen Kenntnis sachgemäß in mathematische Formeln zu fassen, und insbesondere konnte Gibbs zeigen, daß der Temperaturbegriff gerade mit der Unvollständigkeit der Kenntnis eng verknüpft ist.
Die unvollständige Kenntnis von den Gegenständen
Wenn wir von einem System die Temperatur kennen, so bedeutet dies, daß das Systern eines ist aus einer Gruppe von gleichberechtigten Systemen. Diese Gruppe von Systemen kann man mathematisch genau beschreiben, nicht aber das spezielle System, um das es sich handelt. Damit hatte Gibbs eigentlich schon halb unbewußt einen Schritt getan, der später die wichtigsten Konsequenzen nach sich gezogen hat. Gibbs hat zum erstenmal einen physikalischen Begriff eingeführt, der nur dann auf einen Gegenstand in der Natur angwendet werden kann, wenn unsere Kenntnisse des Gegenstands unvollständig ist. Wenn z. B. die Bewegung und Lage aller Moleküle in einem Gas bekannt wären, so hätte es keinen Sinn mehr, von der Temperatur des Gases zu sprechen. Der Temperaturbegriff kann nur verwendet werden, wenn das Svstem unvollständig bekannt ist und man aus dieser unvollständigen Kenntnis statistische Schlüsse zu ziehen wünscht.
Die Entdeckung der Quantentheorie - oder: das Ende des Determinismus
0bwohl man in dieser Weise seit den Entdeckungen von Gibbs und Boltzmann die unvollständige Kenntnis eines Systems in die Formulierung der physikalischen Gesetze einbezog, hat man doch grundsätzlich am Determinismus festgehalten bis zur berühmten Entdeckung von Max Planck, mit der die Quantentheorie begonnen hat. Planck hatte zunächst in seiner Arbeit über die Strahlungstheorie nur ein Element von Unstetigkeit in den Strahlungserscheinungen gefunden. Er hatte gezeigt, daß ein strahlendes Atom seine Energie nicht kontinuierlich, sondern unstetig, in Stößen, abgibt. Diese unstetige und stoßweise Energieabgabe führt wieder, wie die ganzen Vorstellungen der Atomtheorie, zu der Annahme, daß die Aussendung von Strahlung ein statistisches Phänomen sei. Aber erst im Laufe von zweieinhalb Jahrzehnten hat sich herausgestellt, daß die Quantentheorie tatsächlich sogar dazu zwingt, die Gesetze eben als statistische Gesetze zu formulieren und vom Determinismus auch grundsätzlich abzugehen.
Die Plancksche Theorie hatte sich seit den Arbeiten von Einstein, Bohr und Sommerfeld als der Schlüssel erwiesen, mit dem man das Tor zu dem Gesamtgebiet der Atomphysik öffnen kann. Mit Hilfe des Rutherford-Bohrschen Atoilmodells hat man die chemischen Vorgänge erklären können, und seit dieser Zeit sind Chemie, Physik und Astrophysik zu einer Einheit verschmolzen. Bei der mathematischen Formulierung der quantentheoretischen Gesetze hat man sich aber gezwungen gesehen vom reinen Determinismus abzugehen. Da ich von diesen mat ematischen Ansätzen hier nicht sprechen kann, will ich nur verschiedene Formulierungen angeben, in denen man die merkwürdige Situation ausgedrückt hat, vor die der Physiker sich in der Atomphysik gestellt sah.
Unbestimmtheitsrelationen
Einmal kann man die Abweichung von der früheren Physik in den sogenannten Unbestimmtheitsrelationen ausdrücken. Man stellt fest, daß es nicht möglich ist, den Ort und die Geschwindigkeit eines atomaren Teilchens gleichzeitig mit beliebiger Genauigkeit anzugeben. Man kann entweder den Ort sehr genau messen, dann verwischt sich dabei durch den Eingriff des Beobachtungsinstruments die Kenntnis der Geschwindigkeitbis zu einem gewissen Grad; umgekehrt verwischt sich die Ortskenntnis durch eine genaue Geschwindigkeitsmessung, so daß für das Produkt der beiden Ungenauigkeiten durch die Plancksche Konstante eine untere Grenze gegeben wird. Diese Formulierung macht jedenfalls klar, daß man mit den Begriffen der Newtonschen Mechanik nicht sehr viel weiter kommen kann; denn für die Berechnung eines mechanischen Ablaufs muß man gerade Ort und Geschwindigkeit zu einem bestimmten Zeitpunkt gleichzeitig genau kennen; aber eben dies soll nach der Quantentheorie unmöglich sein.
Komplementarität
Eine andere Formulierung ist von Niels Bohr geprägt worden, der den Begriff der Komplementarität eingeführt hat. Er meint damit, daß verschiedene anschauliche Bilder, mit denen wir atomare Systeme beschreiben, zwar für bestimmte Experimente durchaus angemessen sind, aber sich doch gegenseitig ausschließen. So kann man z. B. das Bohrsche Atom als ein Planetensystem im kleinen beschreiben: in der Mitte ein Atomkern und außen Elektronen, die diesen Kern umkreisen. Für andere Experimente aber mag es zweckmäßig sein, sich vorzustellen daß der Atomkern von einem System stehender Wellen umgeben ist, wobei die Frequenz der Wellen maßgebend ist für die vom Atom ausgesandte Strahlung. Schließlich kann man das Atom auch ansehen als einen Gegenstand der Chemie, man kann seine Reaktionswärmen beim Zusammenschluß mit anderen Atomen berechnen, aber dann nicht gleichzeitig etwas über die Bewegung der Elektronen aussagen. Diese verschiedenen Bilder sind also richtig, wenn man sie an der richtigen Stelle verwendet, aber sie widersprechen einander, und man bezeichnet sie daher als komplementär zueinander. Die Unbestimmtheit, mit der jedes einzelne dieser Bilder behaftet ist und die durch die Unbestimmtheitsrelation ausgedrückt wird, genügt eben, um logische Widersprüche zwischen den verschiedenen Bildern zu vermeiden.
Nur Wahrscheinlichkeitsaussagen sind möglich
Es ist aus diesen Andeutungen wohl auch ohne Eingehen auf die Mathematik der Quantentheorie verständlich, daß die unvollständige Kenntnis eines Systems ein wesentlicher Bestandteil der Formulierung der Quantentheorie sein muß. Die quantentheoretischen Gesetze müssen statistischer Art sein. Um ein Beispiel zu nennen: Wir wissen, daß ein Radiumatom alpha-Strahlen aussenden kann. Die Quantentheorie kann angeben, mit welcher Wahrscheinlichkeit pro Zeiteinheit das alpha-Teilchen den Kern verläßt; aber den genauen Zeitpunkt kann sie nicht vorhersagen, der ist prinzipiell unbestimmt. Man kann auch nicht etwa annehmen, daß später noch einmal neue Gesetzmäßigkeiten gefunden werden, die uns dann erlauben, diesen genauen Zeitpunkt zu bestimmen; denn wenn das der Fall wäre, so könnte man nicht verstehen, wieso das alpha-Teilchen auch noch aufgefaßt werden kann als eine Welle, die den Atomkern verläßt, es kann ja auch als solche experimentell nachgewiesen werden.
Die verschiedenen Experimente, die sowohl die Wellennatur als auch die Teilchennatur der atomaren Materie beweisen, zwingen uns durch ihre Paradoxie zur Formulierung von statistischen Gesetzmäßigketten. Bei Vorgängen im großen spielt dieses statistische Element der Atomphysik im allgemeinen keine Rolle, weil aus den statistischen Gesetzen für den Vorgang im großen eine so große Wahrscheinlichkeit folgt, daß man sagen kann, praktisch sei der Vorgang determiniert. Es gibt allerdings auch immer wieder Fälle, in denen das Geschehen im großen abhängt vom Verhalten eines oder einiger weniger Atome; dann kann man auch den Vorgang im großen nur statistisch vorhersagen. Ich möchte das an einem bekannten, aber unerfreulichen Beispiel erläutern, nämlicham Beispiel der Atombombe.
Die statistische Vorhersage am Beispiel der Atombombe
Bei einer gewöhnlichen Bombe kann aus dem Gewicht des Explosionsstoffes und seiner chemischen Zusammensetzung die Stärke der Explosion vorherberechnet werden. Bei der Atombombe kann man zwar auch noch eine obere und eine untere Grenze für die Stärke der Explosion angeben, aber eine genaue Vorausberechnung dieser Stärke ist prinzipiell unmöglich, da sie von dem Verhalten einiger weniger Atome beim Zündungsvorgang abhängt. In ähnlicher Weise gibt es wahrscheinlich auch in der Biologie - worauf Jordan besonders hingewiesen hat - Vorgänge, bei denen Entwicklungen im großen durch Prozesse an einzelnen Atomen gesteuert werden, insbesondere scheint dies bei den Mutationen der Gene im Vererbungsvorgang der Fall zu sein. Diese beiden Beispiele sollten die praktischen Konsequenzen des statistischen Charakters der Quantentheorie erläutern; auch diese Entwicklung ist seit über zwei Jahrzehnten abgeschlossen, und man wird nicht annehmen können, daß sich in Zukunft an dieser Stelle noch grundsätzlich etwas ändern kann.
Geschichte der neueren Atomphysik
Trotzdem ist in den allerletzten Jahren zum Problemkreis der Kausalität noch ein neuer Gesichtspunkt hinzugekommen, der, wie ich schon zu Anfang sagte, aus der jüngsten Entwicklung der Atomphysik stammt. Die Fragen, die jetzt im Mittelpunkt des Interesses der Atomphysik stehen, haben sich in logischer Folge aus ihrem Fortschritt in den letzten 200 Jahren ergeben, und ich muß daher noch einmal kurz auf die Geschichte der Atomphysik eingehen. Beim Beginn der Neuzeit hatte sich der Atombegriff verbunden mit dem des chemischen Elements. Ein Grundstoff wurde dadurch charakterisiert, daß er sich chemisch nicht weiter zerlegen läßt. Zu jedem Element gehört daher eine bestimmte Atomsorte. Ein Stück des Elements Kohlenstoff besteht etwa aus lauter Kohlenstoffatomen, ein Stück des Elements Eisen aus lauter Eisenatomen. Man war daher gezwungen, genau so viele Atomsorten anzunehmen, als es chemische Elemente gibt. Da man schließlich 92 verschiedene chemische Elemente kannte, mußte man auch 92 Atomsorten annehmen. Eine solche Vorstellung ist aber von den Grundvoraussetzungen der Atomlehre her sehr unbefriedigend. Ursprünglich sollten doch die Atome durch ihre Lagerung und Bewegung die Qualitäten der Stoffe erklären. Die Vorstellung hat nur dann einen wirklichen Erklärungswert, wenn die Atome alle gleich sind oder es nur ganz wenige Sorten von Atomen gibt, wenn also die Atome selbst keine Qualitäten besitzen. Wenn man aber gezwungen ist, 92 qualitativ verschiedene Atome anzunehmen, so hat man nicht allzuviel gewonnen gegenüber der Aussage, daß es eben qualltativ verschiedene Dinge gibt.
Die drei Grundbausteine der chemischen Atome
Die Annahme von 92 grundsätzlich verschiedenen kleinsten Teilchen ist daher seit langer Zeit als unbefriedigend empfunden worden, und man hat vermutet, es müsse möglich sein, von diesen 92 Atomsorten zu einer kleineren Anzahl elementarer Bestandteile zu kommen. Man hat also früh versucht, die chemischen Atome selbst als zusammengesetzt aus wenigen Grundbausteinen aufzufassen. Die ältesten Versuche, die chemischen Stoffe in andere zu verwandeln, gingen immer von der Voraussetzung aus, daß letzten Endes die Materie einheitlich sei. Tatsächlich hat sich in den vergangenen 50 Jahren herausgestellt, daß die chemischen Atome zusammengesetzt sind, und zwar aus nur drei Grundbaustelnen, die wir Protonen, Neutronen und Elektronen nennen. Der Atomkern besteht aus Protonen und Neutronen, und dieser Atomkern wird von einer Anzahl von Elektronen umkreist. So besteht etwa der Kern des Kohlenstoffatoms aus sechs Protonen und sechs Neutronen, und er wird in relativ weitem Abstand von sechs Elektronen umkreist. An die Stelle der 92 verschiedenen Atomsorten sind also seit der Entwicklung der Kernphysik in den dreißiger Jahren nur drei verschiedene kleinste Teilchen getreten; insofern hat die Atomlehre genau den Weg genommen, der ihr durch ihre Grundvoraussetzungen vorgezeichnet war. Nachdem die Zusammensetzung aller chemischen Atome aus den drei Grundbausteinen klargestellt war, mußte es auch möglich sein, die chemischen Elemente praktisch ineinander umzuwandeln. Bekanntlich ist der physikalischen Aufklärung auch bald die technische Verwirklichung gefolgt. Seit der Entdeckung der Uranspaltung durch Otto Hahn im Jahre 1938 und der an sie anschließenden technischen Entwicklung können Element-Umwandlungen auch im großen vollzogen werden.
Weitere Elementarteilchen: Mesonen
Nun hat sich in den letzten beiden Jahrzehnten das Bild wieder etwas verwirrt. Neben den genannten drei Elementartellchen: Proton, Neutron und Elektron hat man schon in den dreißiger Jahren noch weitere entdeckt, und in den allerletzten Jahren ist die Anzahl dieser neuen Teilchen erschreckend angewachsen. Es handelt sich dabei stets um Elementarteilchen, die im Gegensatz zu den drei Grundbausteinen unstabil, d. h. nur ganz kurze Zeit existenzfähig sind. Von diesen Teilchen, die wir Mesonen nennen, hat eine Sorte eine Lebensdauer von etwa dem millionsten Teil einer Sekunde, eine andere lebt nur den hundertsten Teil dieser Zeit, eine dritte, elektrisch geladene Sorte sogar nur den hundertbillionsten Teil einer Sekunde lang. Bis auf diese Unstabilität verhalten sich die neuen Elementarteilchen aber ganz ähnlich wie die drei stabilen Grundbausteine der Materie.
Es gibt nur eine einheitliche Materie
Im ersten Augenblick sieht es so aus, als sei man nun wieder gezwungen, eine große Anzahl qualltativ verschiedener Elementarteilchen anzunehmen, und das wäre im Hinblick auf die Grundvoraussetzungen der Atomphysik sehr unbefriedigend. Es hat sich aber in den Experimenten der letzten Jahre herausgestellt, daß die Elementarteilchen sich bei Zusammenstößen mit großer Energieumsetzung ineinander verwandeln können. Wenn zwei Elementarteilchen mit großer Bewegungsenergie aufeinandertreffen, so entstehen beim Stoß neue Elementarteilchen, die ursprünglichen Teilchen und ihre Energie verwandeln sich in neue Materie. Diesen Sachverhalt kann man am einfachsten beschreiben, wenn man sagt, alle Teilchen bestehen im Grunde aus dem gleichen Stoff, sie sind nur verschiedene stationäre Zustände ein und derselben Materie. Auch die Zahl 3 der Grundbausteine wird daher noch einmal reduziert auf die Zahl 1. Es gibt nur eine einheitliche Materie, aber sie kann in verschiedenen diskreten stationären Zuständen existieren. Einige dieser Zustände sind stabil, das sind Proton, Neutron und Elektron, und viele andere sind unstabil.
Schwierigkeiten mit dem Zeitbegriff
Obwohl man aufgrund der experimentellen Ergebnisse der vergangenen Jahre kaum mehr daran zweifeln kann, daß die Atomphysik sich in dieser Richtung entwickeln wird, ist es bisher noch nicht gelungen, die Gesetzmäßigkeiten mathematisch zu erfassen, nach denen die Elementarteilchen gebildet sind. Das ist eben das Problem, an dem die Atomphysiker im Augenblick arbeiten, sowohl experimentell, indem sie neue Teilchen entdecken und deren Eigenschaften untersuchen, als auch theoretisch, indem sie sich bemühen, die Eigenschaften der Elementarteilchen gesetzmäßig zu verknüpfen und sie in mathematischen Formeln niederzuschreiben.
Bei diesen Bemühungen sind die Schwierigkeiten mit dem Zeitbegriff aufgetaucht, von denen ich vorher sprach. Wenn man sich mit den Zusammenstößen der Elementarteilchen höchster Energien beschäftigt, muß man auf die RaumZeitStruktur der speziellen Relativitätstheorie Rücksicht nehmen. In der Quantentheorie der Atomhülle spielte diese Raum-ZeitStruktur keine sehr wichtige Rolle, da sich die Elektronen der Atomhülle verhältnismäßig langsam bewegen. jetzt aber hat man es mit Elementarteilchen zu tun, die sich nahezu mit Lichtgeschwindigkeit bewegen, deren Verhalten also nur mit Hilfe der Relativitätstheorie beschrieben werden kann. Einstein hat vor 50 Jahren gefunden, daß die Struktur von Raum und Zeit nicht ganz so einfach ist, wie wir sie uns zunächst im täglichen Leben vorstellen. Wenn wir als vergangen alle jene Ereignisse bezeichnen, von denen wir, wenigstens im Prinzip, etwas erfahren können, und als zukünftig alle Ereignisse, auf die wir, wenigstens im Prinzip, noch einwirken können, so entspricht es unserer naiven Vorstellung zu glauben, daß zwischen diesen beiden Gruppen von Ereignissen nur ein unendlich kurzer Moment liegt, den wir den gegenwärtigen Zeitpunkt nennen können. Das war auch die Vorstellung, die Newton seiner Mechanik zugrunde gelegt hatte.
Der Bereich der Gegenwart
Seit Einsteins Entdeckung im Jahre 1905 aber weiß man, daß zwischen dem, was ich eben zukünftig, und dem, was ich vergangen genannt habe, ein endlicher Zeitabstand liegt, dessen zeitliche Ausdehnung abhängt von dem räumlichen Abstand zwischen dem Ereignis und dem Beobachter. Der Bereich der Gegenwart ist also nicht auf einen unendlich kurzen Zeitmoment beschränkt. Die Relativitätstheorie nimmt an, daß Wirkungen sich grundsätzlich nicht schneller als mit Lichtgeschwindigkeit ausbreiten können. Dieser Zug der Relativitätstheorie führt nun im Zusammenhang mit den Unbestimmtheitsrelationen der Quantentheorie zu Schwierigkeiten. Nach der Relativitätstheorie können Wirkungen sich nur erstrecken auf das Raum-Zeit-Gebiet, das scharf begrenzt ist durch den sogenannten Lichtkegel, d. h. durch die Raum-Zeit-Punkte, die von einer von dem wirkenden Punkt ausgehenden Lichtwelle erreicht werden. Dieses Raum-Zeit-Gebiet ist also, das muß besonders betont werden, scharf begrenzt. Andererseits hat sich in der Quantentheorie herausgestellt, daß eine scharfe Festlegung des Ortes, also auch eine scharfe räumliche Begrenzung, eine unendliche Unbestimmtheit der Geschwindigkeit und damit auch des Impulses und der Energie zur Folge hat. Dieser Sachverhalt wirkt sich praktisch in der Weise aus, daß bei dem Versuch einer mathematischen Formulierung der Wechselwirkung der Elementarteilchen stets unendliche Werte für Energie und Impuls auftreten, die eine befriedigende mathematische Formulierung verhindern.
Verwischung von Raum und Zeit
Über diese Schwierigkeiten sind in den letzten Jahren viele Untersuchungen angestellt worden. Es ist aber noch nicht gelungen, eine ganz befriedigende Lösung anzugeben. Als einzige Abhilfe scheint sich einstweilen die Annahme darzubieten, daß in ganz kleinen Raum-Zeit-Bereichen, also in Bereichen von der Größenordnung der Elementarteilchen, Raum und Zeit in einer eigentümlichen Weise verwischt sind, nämlich derart, daß man in so kleinen Zeiten selbst die Begriffe früher oder später nicht mehr richtig definieren kann. Im großen würde sich an der Raum-Zeit-Struktur natürlich nichts ändern können, aber man müßte mit der Möglichkeit rechnen, daß Experimente über die Vorgänge in ganz kleinen Raum-Zeit-Bereichen zeigen werden, daß gewisse Prozesse scheinbar zeitlich umgekehrt ablaufen, als es ihrer kausalen Reihenfolge entspricht.
Neue Paradoxien
An dieser Stelle hängen also die neuesten Entwicklungen der Atomphysik wieder Mit der Frage des Kausalgesetzes zusammen. Ob freilich hier noch einmal neue Paradoxien, neue Abweichungen vom Kausalgesetz auftreten, ist im Augenblick noch nicht zu entscheiden. Es mag sein, daß sich bei dem Versuch zur mathematischen Formulierung der Gesetze der Elementartellchen doch noch neue Möglichkeiten ergeben werden, um die genannten Schwierigkeiten zu umgehen. Aber man kann doch schon jetzt kaum daran zweifeln, daß die Entwicklung der neuesten Atomphysik an dieser Stelle noch einmal in den philosophischen Bereich übergreifen wird. Die endgültige Antwort auf die eben gestellten Fragen wird man erst geben können, wenn es gelungen ist, die Naturgesetze im Bereich der Elementarteilchen mathematisch festzulegen; wenn wir also z. B. wissen, warum etwa das Proton gerade 1 836mal schwerer ist als das Elektron.
Wie werden sich die Rätsel lösen?
Man erkennt daraus, daß die Atomphysik sich von den Vorstellungen des Determinismus immer weiter entfernt hat. Zunächst schon seit den Anfängen der Atomlehre dadurch, daß man die für die Vorgänge im großen maßgebenden Gesetze als statistische Gesetze aufgefaßt hat. Man hat damals zwar prinzipiell den Determinismus aufrechterhalten, aber praktisch mit unserer unvollständigen Kenntnis der physikalischen Systeme gerechnet. Dann in der ersten Hälfte unseres Jahrhunderts dadurch, daß die unvollständige Kenntnis atomarer Systeme als ein prinzipieller Bestandteil der Theorie erkannt worden ist. Schließlich in den allerletzten Jahren noch dadurch, daß in den kleinsten Räumen und Zeiten der Begriff der zeitlichen Reihenfolge problematisch zu werden scheint, obwohl wir noch nicht sagen können, wie sich hier die Rätsel einmal lösen werden.
W. Heisenberg, 1954
Erstellt am 07.05.2005 - Letzte Änderung am 07.05.2005.