Die Riemannsche Zeta-Funktion, auch Riemannsche ζ-Funktion oder Riemannsche Zetafunktion (nach Bernhard Riemann), ist eine komplexwertige, spezielle mathematische Funktion, die in der analytischen Zahlentheorie, einem Teilgebiet der Mathematik, eine wichtige Rolle spielt. Erstmals betrachtet wurde sie im 18. Jahrhundert von Leonhard Euler, der sie im Rahmen des Basler Problems untersuchte. Bezeichnet wird sie üblicherweise mit dem griechischen Buchstaben (Zeta).
Ihr Definitionsbereich umfasst alle komplexen Zahlen außer der Zahl . Für Werte mit Realteil größer als wird die Riemannsche Zeta-Funktion über eine Dirichlet-Reihe definiert. Sie lautet:
für .
Mittels analytischer Fortsetzung kann sie zu einer auf holomorphen Funktion ausgeweitet werden. Sie erfüllt eine wichtige Funktionalgleichung, mit deren Hilfe sie sogar charakterisiert werden kann.
Von großer Bedeutung für die Zahlentheorie ist der Zusammenhang der Zeta-Funktion mit der Primfaktorzerlegung natürlicher Zahlen. Auf dieser Basis konnte Riemann im Jahr 1859 die sehr enge und nicht offensichtliche Beziehung zwischen den Primzahlen und der Lage der Nullstellen der Zeta-Funktion nachweisen. So folgt aus der Tatsache für alle komplexen Zahlen mit bereits, dass die -te Primzahl „recht genau“ den Wert hat – genauer gesagt folgt[1][2]
Hier bezeichnet den natürlichen Logarithmus von . Genauere Informationen über nullstellenfreie Bereiche macht das Bild um die Primzahlverteilung deutlicher. Die bisher unbewiesene Riemannsche Vermutung sagt aus, dass alle nicht-trivialen Nullstellen der Riemannschen Zeta-Funktion den Realteil haben, also auf einer gemeinsamen Geraden liegen. Ob diese Vermutung zutrifft, ist eines der wichtigsten ungelösten Probleme der Mathematik. Aufgrund der Bedeutung der Primzahlen für moderne Kryptosysteme (wie in etwa der RSA-Verschlüsselung) genießt die Riemannsche Vermutung auch außerhalb der reinen Zahlentheorie Aufmerksamkeit.
Das Verhalten der Riemannschen Zeta-Funktion in den Bereichen und gilt als gut verstanden. Jedoch sind ihre Eigenschaften innerhalb des kritischen Streifens weitestgehend unbekannt und Gegenstand bedeutender Vermutungen. Dies betrifft unter anderem die Fragen nach asymptotischem Wachstum in imaginärer Richtung und der für die Zahlentheorie so wichtigen Nullstellenverteilung. Nach heutigem Wissensstand beschreibt die Zeta-Funktion im Streifen im Wesentlichen Chaos. Die Werte der Nullstellen bauen nicht nur Brücken zur Theorie der Primzahlen, sondern höchstwahrscheinlich auch zur modernen Quantenphysik. Weitere Anwendungsgebiete sind die Wahrscheinlichkeitstheorie und die Theorie der automorphen Formen (insbesondere im Feld des Langlands-Programms).
Aus Sicht der algebraischen Zahlentheorie ist die Riemannsche Zeta-Funktion nur ein Spezialfall einer ganzen Klasse sogenannter L-Funktionen. So entspricht sie der zum Trivialen Charakter modulo 1 gehörigen Dirichletschen L-Funktion und der zum Zahlkörper (rationale Zahlen) korrespondierenden Dedekindschen Zeta-Funktion.
Wegen der überragenden Bedeutung der Riemannschen Vermutung für die Zahlentheorie und deren Anwendungen bleibt der Themenkreis der Riemannschen Zeta-Funktion ein Gebiet intensiver mathematischer Forschung. Entscheidende Fortschritte erzielten Mathematiker wie zum Beispiel Lindelöf, Hadamard, de La Vallée Poussin, Hardy, Littlewood, Selberg, Woronin und Conrey.
Notation
Im ganzen Artikel bezeichnet die imaginäre Einheit und die Eulersche Zahl. Zudem wird häufig als komplexe Variable verwendet, die oft in zerlegt wird.
Des Weiteren wird oft die O-Notation von Landau für die Angabe von Fehlergrößen verwendet. Verhalten sich zwei (unbeschränkte) Funktionen und für wachsendes Argument gleich, gilt also , so wird dies mit notiert.
Einordnung ohne mathematisches Vorwissen
Motivation
Im Zentrum der Zahlentheorie, jenes Zweiges der Mathematik, der sich mit den Eigenschaften der natürlichen Zahlen 1, 2, 3, 4 … beschäftigt, stehen die Primzahlen 2, 3, 5, 7, 11 … Diese sind ausgezeichnet durch die Eigenschaft, genau zwei Teiler zu haben, nämlich die 1 und sich selbst. Die 1 ist keine Primzahl. Bereits Euklid konnte zeigen, dass es unendlich viele Primzahlen gibt, weshalb die Liste 2, 3, 5, 7, 11 … niemals enden wird.
Die Primzahlen sind gewissermaßen die Atome der ganzen Zahlen, da sich jede positive ganze Zahl eindeutig multiplikativ in solche zerlegen lässt. Zum Beispiel gilt 21 = 3 · 7 und 110 = 2 · 5 · 11. Trotz dieser elementaren Eigenschaft ist nach mehreren Jahrtausenden Mathematikgeschichte bis heute kein Muster bekannt, dem sich die Primzahlen in ihrer Folge unterwerfen. Ihre Natur ist eine der bedeutendsten offenen Fragen der Mathematik.
Auch wenn das detaillierte Verständnis der Sequenz 2, 3, 5, 7, 11 … unerreichbar fern ist, kann man nach Mustern suchen, wenn man den Blick ausweitet. Dabei hilft zum Beispiel die Vorstellung, dass mit Hilfe statistischer Methoden das Verhalten sehr vieler Menschen (zum Beispiel bezüglich des Konsum- und Wahlverhaltens) oft überraschend präzise beschrieben werden kann, obgleich ein einzelner Mensch äußerst komplex ist. Das hat grob gesagt damit zu tun, dass größer werdende relevante Datenmengen immer zuverlässigere Informationen liefern. Im Falle der Primzahlen führt eine solche Ausweitung unter anderem zu der Frage, wie viele Primzahlen es unterhalb einer fest gewählten Zahl gibt.
Zum Beispiel sind nur 4 Primzahlen, nämlich 2, 3, 5 und 7, kleiner als die Zahl 10. Im Falle von 50 gibt es schon 15 kleinere Primzahlen, nämlich
- 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47.
Ende des 19. Jahrhunderts konnte als Folgerung des Primzahlsatzes eine verblüffend genaue Abschätzung für die Verteilung der Primzahlen bewiesen werden. Der Primzahlsatz wurde bereits im 18. Jahrhundert vom 15-jährigen Gauß (in den Jahren 1792/93) vermutet.[3] Die Abschätzung wurde bereits vor einem Beweis des Primzahlsatzes von Riemann gegeben und tritt als eine Formel in Erscheinung, die die schnelle Berechnung eines Vorhersagewertes zulässt. Mit dieser Formel kann zu einer gegebenen Zahl die Anzahl der Primzahlen, die kleiner als diese Zahl sind, in vernünftiger Zeit geschätzt werden. Die Formel zur Vorhersage wird prozentual immer genauer, je größer die Zahl gewählt wird (jedoch mit Schwankungen). Beispielsweise liefert sie für den Wert 50 die Prognose 14,97 (es sind tatsächlich 15 Primzahlen, siehe oben), womit der Fehler bei 0,16 Prozent liegt. Weiter sagt sie rund 78.527 Primzahlen unter der Zahl 1.000.000 voraus – tatsächlich sind es 78.498. Dies entspricht einer Abweichung von 0,037 Prozent.
Ein mögliches Werkzeug zum Beweis dieser Formel ist die Riemannsche Zeta-Funktion. Dabei wird ausgenutzt, dass sie das Gesetz der eindeutigen Primfaktorzerlegung in der Sprache der Analysis ausdrückt. Also werden die Eigenschaften der Primzahlen in dieser Funktion versteckt abgespeichert. Erhöht sich das Wissen um die Zeta-Funktion, so auch das Wissen um die Primzahlen, sogar in detaillierteren Fragestellungen. So können viele Primzahltests, wie der von Miller-Rabin unter Annahme der Riemannschen Vermutung bewiesen bzw. verbessert werden.[4]
Die Nullstellen der Zeta-Funktion erzeugen einen Korrekturterm obiger Formel, der sie in einen exakten Ausdruck umwandelt. Diese dadurch entstehende exakte Formel kennt also die Verteilung der Primzahlen bis ins letzte Detail. Damit gelten die Fragen um die Primzahlen jedoch nicht als gelöst: der Rechenaufwand nimmt mit steigenden Werten sehr stark zu und somit sind praktische Berechnungen mit dieser Formel nicht effektiv. Für numerische Forschung eignen sich im Gegensatz dazu moderne Primzahltests besser. Die exakte Formel ist jedoch von theoretischem Interesse: sie birgt nämlich den Fehlerabstand zwischen der einfachen Vorhersage und der tatsächlichen Primzahlverteilung. Es wird vermutet, dass dieser Fehler (innerhalb des Spektrums aller Möglichkeiten) kleinstmöglich ist. Dabei wäre eine Entschlüsselung dieses Fehlers nicht so sehr für die Numerik von Relevanz. Vielmehr ist die reine Mathematik bestrebt, den bisher verborgenen Grund zu erfahren, weshalb der Fehler (falls zutreffend) so klein wie möglich ausfällt.
Die Primzahlen sind nicht nur Gegenstand der mathematischen Grundlagenforschung, sondern haben auch praktische Anwendungen. So kommen beispielsweise bei Kryptosystemen wie der RSA-Verschlüsselung sehr große Primzahlen zum Einsatz.
Wie „funktioniert“ die Zeta-Funktion?
Eine mathematische Funktion ist im Grunde wie eine Rechenmaschine. Man gibt einen Wert in die Funktion ein, und diese liefert dann ein Ergebnis in Abhängigkeit vom Eingabewert, zumindest theoretisch. Damit ist gemeint, dass die Funktion an sich nicht rechnet, sondern meist nur eine Rechenvorschrift formelhaft festhält. Einfaches Beispiel für eine Funktion ist die quadratische Funktion, welche die Eingabe mit sich selbst multipliziert. Formelhaft schreibt man dies als . Somit ordnet die quadratische Funktion beispielsweise der Zahl den Wert zu. Rechnet man dies aus, ergibt sich , also .
Im Prinzip funktioniert die Riemannsche Zeta-Funktion genau wie das obere Beispiel, nur dass die Rechenvorschrift etwas komplizierter ist. Um diese zu verstehen, muss das Konzept der unendlichen Reihen bekannt sein. Eine (konvergente) Reihe ist grob gesagt eine Summe von Zahlen, die niemals endet und die sich einer Zahl immer mehr annähert. Ein elementares nicht-triviales Beispiel einer Reihe fußt auf der Zahl , die in Dezimalschreibweise nicht geschlossen, sondern nur durch die unendliche periodische Entwicklung
geschrieben werden kann. Schaut man genauer hin, sieht man, dass dies gerade die Summe aller kehrwertiger 10er-Potenzen ist:
Damit sich die unendlich lange Summe einem Wert annähert, muss gewährleistet sein, dass die Summanden „schnell genug klein“ werden.
Die Riemannsche Zeta-Funktion ist nun vergleichbar mit einer Rechenmaschine, die zu einer gegebenen Zahl die unendliche Summe der Kehrwerte aller natürlichen Potenzen mit diesem Exponenten bildet. Als mathematische Formel lautet diese Vorschrift
- .
Um das besser zu verstehen, betrachtet man das Beispiel der Eingabe . Die natürlichen Potenzen mit diesem Exponenten sind gerade die Quadratzahlen 1, 4, 9, 16, 25 … . Damit wäre das Ergebnis der Zeta-Rechenmaschine in Abhängigkeit vom Eingabewert 2 die Reihe
Es stellt sich heraus, dass die Ausdrücke schnell genug klein werden, so dass diese unendlich lange Summe sich einem gewissen Zahlenwert beliebig annähert, je weiter man summiert. Experimentell kann man festhalten:
und wenn man sogar bis zur millionsten Quadratzahl geht
Da hier bereits sehr viele Terme addiert wurden, kann man vermuten, dass dem exakten Ergebnis schon recht nahe ist. Der exakte Grenzwert ist, das konnte Leonhard Euler begründen, die Zahl
- .
Dabei ist die Kreiszahl. Zwar kannte Euler den Beginn der Dezimalfolge , doch seine Begründung beruhte letztlich auf mathematischen Argumenten und nicht expliziten Rechnungen, da die Summe ja niemals endet. Somit liefert die Zeta-Funktion für die Eingabe 2 das Ergebnis . Analog müssen für die Eingabe 3, 4 … usw. entsprechend die Kehrwerte aller Kubikzahlen, Biquadratzahlen usw. addiert werden und es kommen neue Grenzwerte , … usw. zustande.
Definition und Darstellungsformen
Dirichlet-Reihe
Die Zeta-Funktion wird in der Literatur oft über ihre Darstellung als Dirichlet-Reihe definiert.
Für komplexe Zahlen , deren Realteil größer als 1 ist, ist die Zeta-Funktion definiert durch die Dirichlet-Reihe[5]
Wie man mittels des Integralkriteriums für unendliche Reihen zeigen kann, ist diese Reihe im angegebenen Bereich absolut konvergent. Zudem ist die Konvergenz auf kompakten Teilmengen gleichmäßig, weshalb nach dem Satz von Weierstraß die dargestellte Funktion holomorph ist. Wegen der Divergenz der harmonischen Reihe ist diese Darstellung für alle komplexen Zahlen mit Realteil kleiner oder gleich 1 jedoch ungültig. In besonderem Maße wird dies für negative Argumente ersichtlich, wenn man zum Beispiel versuchte, die Zeta-Funktion für über die Dirichlet-Reihe auszuwerten. Man hätte dann
und diese Reihe hat offensichtlich keinen endlichen Grenzwert.
Dennoch wird die Dirichlet-Reihe aufgrund ihrer Einfachheit und ihrer zahlentheoretischen Relevanz (siehe Euler-Produkt) als Basisdefinition verwendet. Mittels analytischer Fortsetzung (siehe unten) wird eine sinnvolle Berechnung für alle komplexen Zahlen mit möglich. Damit kann schließlich auch Werten wie ein Sinn gegeben werden, es gilt zum Beispiel .
Euler-Produkt
Eine wesentliche Eigenschaft der Zeta-Funktion ist ihre Verbindung zu den Primzahlen. Euler, der als Erster diesen Zusammenhang entdeckte, betrachtete dafür das später nach ihm benannte Euler-Produkt, das für alle mit gültig ist:[5]
Es ist genau äquivalent zur Dirichlet-Reihe und wird von manchen Autoren als Definition verwendet.[6][7] Jeder einzelne Faktor des Produktes stellt eine geometrische Reihe gebildet über den Wert dar, während sich das ganze Produkt über alle Primzahlen erstreckt. Das Euler-Produkt ist erstaunlich, weil Primzahlen aufgrund ihrer nicht genau vorhersehbaren Verteilung sehr schwer in analytischen Ausdrücken unterzubringen sind. Es stellt sich aber eine überraschend einfache Identität zwischen den „chaotischen“ Primzahlen und einer bekannten Reihe heraus.
Für die detaillierte Herleitung |
Für die formale Herleitung des Euler-Produktes werden lediglich die geometrische Reihe, der Satz, dass jede natürliche Zahl genau eine Zerlegung als Produkt von Primzahlen besitzt, sowie Ausmultiplizieren von Klammern benötigt. Zu Beginn bewährt es sich, nur eine endliche Anzahl von Primzahlen im Produkt zu beachten. Entwickelt man jeden Term als eine geometrische Reihe , so ergibt sich im Falle nur einer Primzahl wobei das Potenzgesetz zu beachten ist. Zur Rechten stehen genau die Zahlen, die ausschließlich Zweien in ihrer Primfaktorzerlegung haben, also die Zweierpotenzen. Verfährt man weiter mit den ersten zwei Primzahlen, ergibt sich Multipliziert man beide Klammen aus, ergeben sich in der Summe alle Kombinationen von Termen der Form mit , es gilt also und auf der rechten Seite stehen genau alle solchen Terme , sodass nur Zweien und Dreien in seiner Primfaktorzerlegung hat. Beim Ausmultiplizieren wird jeder Summand der einen Klammer mit einem Summand der anderen Klammer verrechnet, und das in jeder Kombination, für sind die entsprechenden Terme in Rot markiert. Auf ähnliche Weise findet man, dass zu der entsprechenden Dirichlet-Reihe korrespondiert, in der alle Zahlen mit Primfaktorzerlegung auftauchen, und so weiter. Entsprechend gilt für allgemein die ersten Primzahlen Nun kann man in dieser Formel gegen Unendlich laufen lassen, und erhält da jede Zahl genau eine Zerlegung besitzt. |
Das Euler-Produkt konvergiert im betrachteten Bereich unbedingt.[8] Mittels des Identitätssatzes für Dirichlet-Reihen lässt sich zeigen, dass das Euler-Produkt und der Fundamentalsatz der Arithmetik zueinander äquivalent sind. Daher wird es zuweilen auch als dessen analytische Version bezeichnet.[9] Eine wichtige Folgerung des Euler-Produktes für die Analysis der Zeta-Funktion ist, dass für alle gilt. Dies ist eine Konsequenz einer Erweiterung des Satzes vom Nullprodukt für unendliche Produkte: keiner der Faktoren des Euler-Produktes ist für irgendeinen Eingabewert aus diesem Bereich Null, also wird es auch nicht im Grenzwert Null sein.[10] Weitaus nichttrivialer ist die Tatsache, dass das Euler-Produkt, im Gegensatz zur Dirichlet-Reihe, auch auf der Geraden , mit Ausnahme von , an Gültigkeit behält. Es gilt[11]
was die Nullstellenfreiheit von im gesamten Bereich zur Folge hat. Als eine Folgerung der Funktionalgleichung ergibt sich, dass die einzigen Nullstellen von außerhalb des sog. kritischen Streifens die trivialen Nullstellen
sind. Alle anderen Nullstellen bezeichnet man als nichttrivial, und diese liegen allesamt im kritischen Streifen.[12]
Mithilfe des Euler-Produkts der Zeta-Funktion kann ein Beweis des Satzes von Euklid mit analytischen Methoden angegeben werden. Der Satz von Euklid besagt, dass es unendlich viele Primzahlen geben muss, und wurde etwa 300 Jahre vor Christus durch Euklid von Alexandria bewiesen. Unter der Annahme, es gäbe nur endlich viele Primzahlen, gilt
was ein Widerspruch zur Divergenz der harmonischen Reihe ist. Ähnlich bemerkenswert ist die Argumentation über die Formel
Bei endlich vielen Primzahlen wäre die linke Seite eine rationale Zahl, die rechte Seite ist aber aufgrund der Transzendenz der Kreiszahl irrational.[13]
Eine weitere direkte Folgerung des Euler-Produktes, durch Logarithmieren und anschließende Verwendung der Taylor-Reihe des Logarithmus, ist die für gültige Formel
wobei mit die Primzetafunktion bezeichnet.[14] Mit Hilfe von Möbius-Inversion lässt sich daraus eine Möglichkeit ableiten, die Primzetafunktion schnell aus einer Reihe über logarithmierte Zeta-Funktionen zu gewinnen:[15]
Unter anderem kann dieser Ausdruck für eine schnelle numerische Berechnung der Primzetafunktion herangezogen werden.[16] Ferner folgt aus für , dass die Reihe der reziproken Primzahlen divergiert.
Mellin-Transformation
Die nach der Definition als Dirichlet-Reihe und dem Euler-Produkt wohl elementarste und wichtigste Darstellung der Zeta-Funktion ist die mit Hilfe eines uneigentlichen Integral-Ausdrucks. Auch diese Darstellung geht direkt aus der Dirichlet-Reihe hervor.
Grundlage dieser Darstellung ist die eulersche Integral-Darstellung der Gamma-Funktion
aus dem nach der Substitution mit und Division durch nach beidseitigem Summieren der Ausdruck
hervorgeht.[17] Diese Darstellung von gilt naturgemäß nur auf der Halbebene . Die zweite Integraldarstellung von bezeichnet man auch als die Mellin-Transformation von . Das mögliche Vertauschen von Summe und Integral kann mit absoluter Konvergenz und dem Satz von Lebesgue begründet werden. Eine dazu verwandte Form ist
mit der Jacobischen Theta-Funktion (eine Modulform halbganzen Gewichts).
Die Darstellung der Zeta-Funktion mit Hilfe der Gamma-Funktion und der Mellin-Transformation von ist daher zentral, da sie ein Ausgangspunkt für die analytische Fortsetzung der Zeta-Funktion ist. Außerdem können mit ihr charakteristische Funktionalgleichungen und die Beziehung zur Theorie der Modulformen hergeleitet werden.
Methoden zur analytischen Fortsetzung
Die anfänglich nur für komplexe Zahlen definierte Zeta-Funktion kann zu einer in ganz holomorphen Funktion ausgeweitet werden. Diese Tatsache mag zunächst ungewöhnlich wirken, da ihre Dirichlet-Reihe an vielen Stellen nicht mehr konvergiert. Tatsächlich aber steht die Dirichlet-Reihe (wie auch Euler-Produkt und Mellin-Transformation aus Gründen der Äquivalenz) nicht überall für die Definition der Zeta-Funktion zur Verfügung.
An der Stelle besitzt die Zeta-Funktion zunächst mit Sicherheit eine Definitionslücke, denn mit der Divergenz der harmonischen Reihe folgt
Also wird sie in jedem Intervall beliebig anwachsen. Diese Lücke bildet gleichzeitig eine natürliche Barriere für die Konvergenz der Dirichlet-Reihe, was aus den Regeln für Abszissen von Dirichlet-Reihen folgt, denn die betrachtete Dirichlet-Reihe hat Konvergenzabszisse .
Eine analytische Fortsetzung der im Gebiet durch die Reihe definierten holomorphen Funktion ist eine auf einem größeren Gebiet holomorphe Funktion, die auf ganz mit dieser übereinstimmt. Nach dem Identitätssatz für holomorphe Funktionen ist eine solche Fortsetzung stets eindeutig bestimmt. Damit sind alle Werte der Zeta-Funktion im erweiterten Bereich bereits durch die Dirichlet-Reihe festgelegt, obwohl sie hier nicht mehr an allen Stellen konvergiert.
Umformungen der Dirichlet-Reihe und die Eulersche Reihentransformation
Obwohl es für den ganz allgemeinen Fall kein konstruktives Verfahren gibt, Berechnungsformeln für analytische Fortsetzungen anzugeben, ist es durch die Einfachheit der Dirichlet-Reihe nicht schwierig, für die Zeta-Funktion eine zu finden. Besonders einfach erweist sich dies für die gelochte Halbebene
mittels folgender Beobachtung:[18]
Die Reihe zur Rechten konvergiert nachweislich in der Halbebene gegen eine holomorphe Funktion und wird in der Literatur auch manchmal als Dirichletsche Etafunktion bezeichnet. Damit lässt sich die Zeta-Funktion zu einer in ganz holomorphen Funktion fortsetzen. Die Lücke in wird mittels des Faktors gehoben und muss daher ein Pol erster Ordnung sein. Das Residuum der Zeta-Funktion ist dort 1, das heißt, es gilt:[19]
Alle Stellen mit sind hingegen hebbare Singularitäten, denn es gilt dann Dies zeigt man am besten mittels partieller Summation: Für alle gilt[20]
Für eine weitere holomorphe Ausdehnung des Definitionsbereiches eignen sich nun viele Methoden, die jedoch nach dem Identitätssatz alle dieselbe Funktion darstellen. Eine davon bietet die Anwendung der Eulerschen Reihentransformation auf die obere alternierende Reihe. Man erhält damit eine von Konrad Knopp veröffentlichte und auf ganz definierte Reihenidentität
Diese wurde 1930 von Helmut Hasse bewiesen.[21] Es treten daher während der weiteren Fortsetzung keine weiteren Lücken bzw. Pole mehr auf. Daraus folgt schließlich Holomorphie in .
Durch Limitierungsverfahren
Die Idee der Theorie der Limitierungsverfahren ist es, einem divergenten Grenzprozess einen endlichen Wert zuzuordnen, indem man etwa zusätzliche Parameter einführt, die man anschließend gegen den Ursprungsausdruck „limitiert“. Dies geht bereits auf Leonhard Euler zurück, der berühmt für seinen sorglosen Umgang mit divergenten Reihen ist. Er berechnete einige Werte der Zeta-Funktion annähernd auch außerhalb des Bereichs, in welchem die Dirichlet-Reihe konvergiert. Auf diese Weise stieß er auch auf seine Vermutung hinsichtlich der Gültigkeit ihrer Funktionalgleichung, die er allerdings nicht beweisen konnte.
Der Gedanke ist, der für divergenten Reihe
für alle Werte einen „Grenzwert“ zuzuordnen. Dies gelingt durch Einführen eines weiteren Parameters . Es ist die Reihe
für jedes für alle konvergent. Auf dieser Basis kann der Konvergenzbegriff abgeschwächt werden: Eine Reihe heißt A-summierbar, falls die zugehörige Potenzreihe für alle konvergiert und der Grenzwert existiert.[22] Ist eine Reihe bereits im klassischen Sinne konvergent, stimmen die jeweiligen Grenzwerte nach dem Abelschen Grenzwertsatz überein, doch es gibt A-summierbare Reihen, die nicht konvergieren. Es ist also A-Summierbarkeit eine wohldefinierte Verallgemeinerung der klassischen Reihenkonvergenz. Durch Bilden des Grenzwertes , d. h., nähert sich von links, erhält man
sogar für alle , und die rechte Seite stellt eine ganze Funktion dar.[23]
Durch die Hinzunahme einer zweiten zu limitierenden Variable entsteht zugleich eine Beziehung zum Polylogarithmus. Dieser verallgemeinert unter anderen den natürlichen Logarithmus und ist für gegeben durch die Potenzreihe
Ist zudem , so ist diese Reihe auch an den Randwerten (außer bei ) konvergent. Generell ist für feste Werte eine analytische Fortsetzung in auf das Gebiet möglich. Es gilt für alle die Beziehung , aber auch
für Werte . Etwa für gilt zunächst für (siehe Bild rechts), also nach Grenzwertbildung
Die Euler-Maclaurin-Summenformel
Eine weitere Möglichkeit, eine analytische Fortsetzung anzugeben, bietet die Euler-Maclaurin-Summenformel. Diese drückt diskrete Summen explizit in der Sprache der Integralrechnung aus und ist allgemein gegeben durch
Hierbei ist eine auf dem Intervall mindestens -mal differenzierbare Funktion und eine natürliche Zahl. Es bezeichnen zudem die Bernoulli-Polynome und den ganzzahligen Anteil von .[24]
Mit , und folgt also[25]
Dabei ist das Restglied gegeben durch[25]
und konvergiert in der gesamten Halbebene (gleichmäßig auf kompakten Teilmengen). Daher stellt diese Formel eine holomorphe Fortsetzung der Zeta-Funktion in die Halbebene dar. Lässt man gegen unendlich gehen, ergibt sich damit ein holomorpher Ausdruck für ganz .[26]
Setzt man zum Beispiel , ergibt sich die in der Literatur häufig zitierte Darstellung
die für gültig ist.[27]
Integration über eine Hankel-Kontur
Eng verwandt mit der Darstellung der Zeta-Funktion mittels der Mellin-Transformation ist eine Darstellung der Funktion mittels eines Kurvenintegrals. Diese wurde von Riemann selbst verwendet, um die Zeta-Funktion in die komplexe Ebene fortzusetzen. Die Funktion ist je nach Wahl des Zweiges des Logarithmus in unterschiedlichen Bereichen holomorph. Für die Hankel-Kontur (einen speziellen Integrationsweg) ist es von Vorteil, die Gerade aus dem Gebiet auszuschließen via:
Nun definiert man für die Funktion als ein Kurvenintegral über . Die gewählte Kurve kommt von , verläuft mit Abstand über der reellen Geraden, umläuft den Ursprung in einem Halbkreis und erstreckt sich dann wieder mit Abstand unterhalb der reellen Geraden gegen :
Wegen gleichmäßiger Konvergenz auf kompakten Mengen in ist eine ganze Funktion. Wählt man nun , so kann man wegen die Schlaufe beliebig zusammenziehen und erhält mit der Mellin-Transformation
Daraus ergibt sich mit dem Ergänzungssatz die Formel[28]
Ist , so ist innerhalb des gelochten Streifens holomorph. Damit lässt sich die Hankel-Kontur zu einer Kreiskurve zusammenziehen, ohne den Wert des Integrals zu verändern. Dies ermöglicht eine schnelle Berechnung der Werte für ganze Zahlen mittels des Residuensatzes. Unter anderem folgt daraus
für alle und die enge Beziehung der Werte der Zeta-Funktion an nicht-positiven ganzen Argumenten und den Bernoulli-Zahlen.
Diese Darstellungsform kann auch zu einer direkten Herleitung der Funktionalgleichung verwendet werden. Dabei wird die Kurve modifiziert und es kommt der Residuensatz zum Einsatz.[29]
Weitere Darstellungsmöglichkeiten
Erwähnenswert ist der Reihenausdruck
- ,
der für alle Werte definiert ist.[30] Interessant daran ist, dass sich damit die Zeta-Funktion rekursiv auf die ganze Zahlenebene fortsetzen lässt, da für die Berechnung von lediglich die Werte benötigt werden.
Von Helmut Hasse stammt die global konvergente Reihe[31]
Ein exotischer und global konvergenter Ausdruck ergibt sich, wenn man direkt die elementare Reihendarstellung der Zeta-Funktion in die Abel-Plana-Summenformel einsetzt:[32]
Geschichte
Im Gegensatz zu den Primzahlen oder der euklidischen Geometrie ist die mathematische Entdeckungsgeschichte der Riemannschen Zeta-Funktion sehr jung. So sind alle bis heute wesentlichen Entdeckungen zu dieser Funktion in den letzten 250 Jahren gemacht worden. Auf der einen Seite lässt sich die im Verhältnis zur Entstehung einer rigorosen (komplexen) Analysis frühe Entdeckung mit der Einfachheit der Reihe begründen. Auf der anderen Seite lassen sich die späten Resultate mit der Schwierigkeit von deren Eigenschaften erklären.
Um 1735 löste Leonhard Euler das Basler Problem
Einer der ersten Mathematiker, der sich mit einem Vorläufer der wie heute definierten Zeta-Funktion intensiv und ausführlich auseinandersetzte, war Leonhard Euler. Seit Mitte des 17. Jahrhunderts versuchten Mathematiker, den exakten Grenzwert der unendlichen Reihe
zu bestimmen. Persönlichkeiten wie Pietro Mengoli, der das Basler Problem (wie es später bezeichnet wurde) erstmals formulierte, aber auch Jakob I Bernoulli scheiterten mit ihren Lösungsversuchen. Erst um das Jahr 1734 fand Leonhard Euler die Lösung
mit der Kreiszahl , indem er eine neuartige Technik zur Berechnung der Sinusfunktion entwickelte.[33] Dieser Beweis wurde jedoch nach Veröffentlichung von seinen Zeitgenossen zunächst nicht akzeptiert. Daraufhin konterte er mit der Veröffentlichung eines alternativen Beweises im Jahr 1741.[34] Natürlicherweise war Euler bald darauf an der Untersuchung von Reihen des Typs
interessiert. Er hatte die Hoffnung, weitere und außerdem weit bedeutendere Aussagen treffen zu können. Und tatsächlich sollte es nicht nur bei der Lösung des Basler Problems bleiben. Er fand unter anderem die Formeln
die 1735 in seiner Arbeit De Summis Serierum Reciprocarum erstmals veröffentlicht wurden. Obwohl mit steigenden Eingabezahlen die Funktionswerte komplizierter werden, berechnete Euler von Hand[35] den Wert
In seinem Buch Institutiones calculi differentialis cum eius usu in analysi finitorum ac doctrina serierum, das 1755 veröffentlicht wurde, bewies er schließlich eine allgemeine Formel für .[36] Diese zeigte auf, dass sich tatsächlich jedes stets als ein rationales Vielfaches der Potenz schreiben lässt. Nicht erfolgreich war er hingegen bei ungeraden Argumenten, also zum Beispiel bei der Reihe
da sich hier keine seiner Techniken anwenden ließ. Jedoch berechnete er die Werte für bis auf mehrere Dezimalstellen. Außerdem schrieb er einheitlich , wobei im Falle, dass eine gerade Zahl ist, rational ist. Für den Fall, dass ungerade ist, vermutete Euler, sei „eine Funktion von “.[37] Dies konnte jedoch, ungeachtet der vagen Formulierung Eulers, bis heute nicht bestätigt werden. Die Werte der Reihen für ungerade Argumente größer als 1 sind bis heute (Stand 2020) weitestgehend unbekannt und Gegenstand zahlentheoretischer Vermutungen.[38]
Euler gilt als Entdecker der Verbindung zwischen der Zeta-Funktion und den Primzahlen. Diese Verknüpfung wird bis heute als Euler-Produkt bezeichnet. So schrieb er in seiner Arbeit Variae observationes circa series infinitas:
„Wenn aus der Reihe der Primzahlen der folgende Ausdruck gebildet wird wird sein Wert der Summe dieser Reihe gleich sein “
Sofort war sich Euler der Beziehung zwischen den Primzahlen und der Geometrie bewusst, und er schrieb weiter:
„Weil nach Setzen von gilt , wobei die Peripherie des Kreises bezeichnet, dessen Durchmesser 1 ist, wird sein “
Aus der schon damals gut bekannten Tatsache, dass die harmonische Reihe divergent ist, konnte Euler ebenfalls aus dem Euler-Produkt schließen, dass die Summe der Kehrwerte aller Primzahlen keinen endlichen Grenzwert hat.[41] Bezeichnet wird dieses Resultat auch als Satz von Euler über die Summation der Kehrwerte der Primzahlen.
Auch war die von Riemann später bewiesene Funktionalgleichung bereits Euler bekannt. In seiner Arbeit Remarques sur un beau rapport entre les series des puissances tant directes que reciproques beschrieb er diese mathematisch nicht rigoros:[42]
„Par cette raison je hazarderai la conjecture suivante, que quelque soit l’exposant n, cette équation ait toujours lieu:
- “
„Aus diesem Grund wage ich die folgende Vermutung vorzuschlagen, dass für jede Variable n die folgende
die Gleichung immer gültig ist:
- “
Dabei bezog sich Euler eigentlich auf die Dirichletsche Etafunktion, die jedoch bis auf einen Faktor der Riemannschen Zeta-Funktion entspricht. Euler gab keinen rigorosen Beweis einer Funktionalgleichung, sondern hatte diese nur für viele Werte überprüft und anschließend als universell gültig vermutet.
Dirichlet zeigt seinen Primzahlsatz
Im Jahre 1838 gelang dem Mathematiker Peter Dirichlet ein großer Beitrag zur Zahlentheorie. Er bewies eine Vermutung von Fermat, die nun Dirichletscher Primzahlsatz heißt. Diese besagt, dass jede arithmetische Progression mit positiven, teilerfremden unendlich viele Primzahlen enthält.[44] Ist hier zum Beispiel und , folgt, dass die Liste 1, 5, 9, 13, 17 … unendlich viele Primzahlen beinhaltet.
Schlüssel zum Beweis waren neben der Riemannschen Zeta-Funktion eine ganze Klasse weiterer Funktionen, die ebenfalls in Primzahlprodukte zerfallen und somit eine „große Familie“ bilden. Erst ein Jahrhundert später konnten dank feinerer Methoden die Ergebnisse von Dirichlet durch Siegel und Walfisz deutlich präzisiert werden (Satz von Siegel-Walfisz).
Riemanns Beitrag zur Zeta-Funktion
Im Jahr 1859 arbeitete Bernhard Riemann in seiner Publikation Über die Anzahl der Primzahlen unter einer gegebenen Größe den bereits von Euler gegebenen Zusammenhang der Zeta-Funktion zu den Primzahlen entscheidend aus. Die große Leistung bestand darin, die Relevanz der Ausweitung des Definitionsbereichs auf komplexe Zahlen zu erkennen. Erst mit dieser Herangehensweise war es möglich geworden, konkrete Informationen über Primzahlen 2, 3, 5, 7 … selbst zu gewinnen. Das ist insofern bemerkenswert, als Primzahlen reelle Zahlen sind. Riemann, der ein Schüler von Carl Friedrich Gauß war, schrieb in seiner zehnseitigen Arbeit eine funktionentheoretische Interpretation und Auswertung des Euler-Produkts, die einen Zusammenhang zwischen Primzahlen und den nicht-trivialen Nullstellen der Zeta-Funktion schaffte. Das Hauptresultat war eine Formel, die ohne jeden Fehler die Anzahl der Primzahlen unter einer gegebenen (nicht ganzen) positiven Zahl abzählte. Damit war ihm ein völlig neuer Zugang zur Theorie der Primzahlen gelungen.
Er etablierte in seiner Arbeit das griechische (Zeta) als Funktionssymbol und formulierte außerdem die bis heute unbewiesene nach ihm benannte Riemannsche Vermutung, die eine wichtige Aussage über die genaue Lage der Nullstellen der Zeta-Funktion behauptet.
Obwohl der Artikel heutzutage als Durch- und Aufbruch zur modernen analytischen Theorie um die Zeta-Funktion gesehen wird, stieß er damals in Mathematikerkreisen bei Weitem nicht nur auf Begeisterung. Schuld daran war in erster Linie, dass Riemann es an den meisten Stellen unterlassen hatte, Beweise für seine aufgestellten Formeln zu hinterlegen. So kam es, dass Godfrey Harold Hardy und John Edensor Littlewood Riemanns Arbeit lediglich als „beachtliche Ansammlung heuristischer Einsichten“ bezeichneten,[45] die englischen Mathematiker waren allerdings in der analytischen Zahlentheorie zu Beginn des 20. Jahrhunderts anfangs noch so rückständig, dass Littlewood sich erinnerte, die Riemannsche Vermutung 1906 von seinem Professor als Übungsaufgabe gestellt bekommen zu haben. Auch Edmund Landau gehörte zu den lautesten Kritikern hinsichtlich der Bedeutung des Artikels. Zwar nannte er ihn zunächst „brillant und fruchtbar“, jedoch schlug sein Lob bald um:
„Riemanns Formel ist bei weitem nicht das wichtigste in der Theorie der Primzahlen. Er schuf einige Hilfsmittel, die, wenn sie erstmal ausgearbeitet sind, manche anderen Beweise ermöglichen werden.“
Detlef Laugwitz bemerkt dazu in seiner Riemann-Biographie, dass Landau auch Eulers bahnbrechende Arbeiten in seinen Lehrbüchern wenig würdigte, da er tendenziell nur Arbeiten schätzte, in denen jedes Detail ausgearbeitet war.[47] Auf der anderen Seite bewunderten Mathematiker wie Felix Klein, Riemann habe „mit großen allgemeinen Ideen“ gearbeitet und „oft auf seine Intuition“ vertraut.[48] Das war noch bevor Carl Ludwig Siegel durch das Studium des Nachlasses zeigte, wie umfangreich Riemanns analytische Arbeiten zur Zeta-Funktion waren. Die Rechnungen im Nachlass waren allerdings schwer zu entschlüsseln und es bedurfte eines Mathematikers vom Kaliber Siegels, die Ideen Riemanns zu rekonstruieren.
Riemann arbeitete seit dieser Zeit bis zu seinem frühen Tode (er starb mit gerade mal 39 Jahren an den Folgen einer Tuberkulose) nicht mehr an der Zeta-Funktion, es blieb seine einzige Veröffentlichung zur Zahlentheorie.[49] Der Aufsatz von 1859 war nur skizzenhaft ausgeführt, Riemann wollte sich damit für die Aufnahme in die Berliner Akademie der Wissenschaften bedanken.
Viele von Riemanns Aufzeichnungen wurden nach seinem Ableben von seiner Haushälterin verbrannt, bis sie von Mitarbeitern der Göttinger Fakultät gestoppt wurde. Die verbliebenen Schriften wurden seiner Witwe übergeben und verschwanden damit für viele Jahre. Über weitere Resultate zur Zeta-Funktion, die man ohne teilweise Vernichtung der Dokumente gefunden hätte, kann bis heute nur noch spekuliert werden.
Die letzten Jahre des 19. Jahrhunderts
Mangoldt beweist die Hauptformel von Riemann
Im Jahr 1893 publizierte der Mathematiker Jacques Hadamard eine Arbeit, in welcher der Grundstein eines detaillierteren Verständnisses von Riemanns Arbeit gelegt wurde. Hadamard war es gelungen, eine Formel für die Zeta-Funktion zu beweisen, die ihre Nullstellen beinhaltet. Genau genommen handelte es sich dabei um ein Verfahren, die Zeta-Funktion als Ganzes aus ihren Nullstellen zu konstruieren. Die Existenz einer solchen Formel wurde von Riemann bereits vorausgesetzt, war jedoch bis dato nicht rigoros bewiesen worden. Für die Verifikation der Riemannschen Ideen war sie aber ein substanzieller Teil: das Grundschema der Argumentation für Riemanns Hauptformel lautete nämlich „Primzahlprodukt (Euler) versus Nullstellenprodukt (Riemann/Hadamard)“. Unter anderem deshalb bezeichnete Hans von Mangoldt den Beitrag von Hadamard „als ersten wirklichen Fortschritt in diesem Gebiet seit 34 Jahren“.[50][51]
Aufbauend auf der Arbeit von Hadamard gelang Hans von Mangoldt nur zwei Jahre später, im Jahre 1895, der Durchbruch zu Riemanns Hauptformel.[52] Allerdings zeigte er diese in einer leicht veränderten Version, die heute als „natürlicher“[53] angesehen wird. Seiner Leistung zu Ehren wird die Hauptformel heute als Riemann-von-Mangoldt-Formel bezeichnet.
Hadamard und De La Vallee-Poussin beweisen den Primzahlsatz
Nachdem von Mangoldt im Jahr 1895 den Beweis der Riemannschen Hauptformel erbracht hatte, fehlte zum Beweis des Primzahlsatzes nicht mehr viel. Dieser Satz trifft eine Aussage darüber, wie häufig Primzahlen durchschnittlich auftauchen. Es blieb lediglich zu zeigen, dass die Zeta-Funktion keine Nullstellen in dem Bereich hat, in dem das Primzahlprodukt von Euler „gerade so nicht mehr gültig ist“. Unabhängig voneinander erbrachten Hadamard und der Belgier Charles-Jean de La Vallée Poussin den Beweis im Jahr 1896.[54] Wichtige Punkte für den Beweis waren Ideen von Franz Mertens und die trigonometrische Identität .[55]
Obwohl die Aufregung in der Mathematikerwelt groß war, gab es bezüglich der Beweismethode, die stark an die Eigenschaften der schwierigen Zeta-Funktion gebunden war, Bedenken über deren Natürlichkeit. Es wurde als seltsam erachtet, dass eine Aussage über Primzahlen sogar äquivalent zu einer gewissen Verteilung der Nullstellen einer komplexen Funktion war. So äußerte Albert Ingham 1932:
„Man kann den Beweis des Primzahlsatzes, […] von de la Vallée Poussin und Hadamard für unbefriedigend halten, denn es werden Begriffe eingeführt, die sehr weit vom ursprünglichen Problem entfernt sind. Deswegen ist es nur allzu natürlich, nach einem Beweis zu fragen, der nicht von der Theorie der Funktionen einer komplexen Veränderlichen abhängt. Hierauf müssen wir antworten, daß gegenwärtig kein derartiger Beweis bekannt ist. Wir können in der Tat weiter gehen und sagen, daß es unwahrscheinlich ist, dass ein wahrhaft reeller Beweis gefunden wird; zumindest ist das so lange unwahrscheinlich, wie sich die Theorie auf die Eulersche Identität stützt. Denn jeder bekannte Beweis des Primzahlsatzes stützt sich auf eine gewisse Eigenschaft der komplexen Nullstellen von und umgekehrt ist diese Eigenschaft eine einfache Folgerung des Primzahlsatzes selbst. Es scheint deswegen klar zu sein, daß diese Eigenschaft explizit oder implizit in jedem Beweis verwendet werden muss, der auf beruht, und man erkennt nicht, wie ein Beweis geführt werden soll, wenn man lediglich die reellen Werte von verwendet.“
Im Jahr 1948 wurde schließlich ein elementarer (also gänzlich ohne funktionentheoretische Mittel auskommender) Beweis von Atle Selberg und Paul Erdös gegeben.[58] Hierbei bedeutet „elementar“ jedoch keinesfalls „einfach“.[59] Es wurden im Lauf der Zeit auch erheblich einfachere funktionentheoretische und elementare[60] Beweise des Primzahlsatzes gefunden.
Anfang des 20. Jahrhunderts
Hilbert formuliert seine 23 Probleme
Im Rahmen des 2. Internationalen Mathematikerkongresses des Jahres 1900 in Paris hielt David Hilbert am 8. August einen Vortrag. In diesem formulierte er eine Liste von 23 mathematischen Problemen, die seiner Ansicht nach zu den wichtigsten des kommenden Jahrhunderts zählten. Hilbert zählte zu diesem Zeitpunkt bereits zu den führenden Mathematikern der Gegenwart. Problem Nr. 8 war die Riemannsche Vermutung:
„In der Theorie der Verteilung der Primzahlen sind in neuerer Zeit durch Hadamard, De La Vallee-Poussin, V. Mangoldt und andere wesentliche Fortschritte gemacht worden. Zur vollständigen Lösung der Probleme, die uns die Riemannsche Abhandlung "Über die Anzahl der Primzahlen unter einer gegebenen Größe" gestellt hat, ist es jedoch noch nötig, die Richtigkeit der äußerst wichtigen Behauptung von Riemann nachzuweisen, daß die Nullstellen der Funktion , die durch die Reihe dargestellt wird, sämtliche den reellen Bestandteil haben – wenn man von den bekannten negativ ganzzahligen Nullstellen absieht. Sobald dieser Nachweis gelungen ist, so würde die weitere Aufgabe darin bestehen, die Riemannsche unendliche Reihe für die Anzahl der Primzahlen genauer zu prüfen und insbesondere zu entscheiden, ob die Differenz zwischen der Anzahl der Primzahlen unterhalb einer Größe und dem Integrallogarithmus von in der Tat von nicht höherer als der ten Ordnung in unendlich wird, und ferner, ob dann die von den ersten komplexen Nullstellen der Funktion abhängenden Glieder der Riemannschen Formel wirklich die stellenweise Verdichtung der Primzahlen bedingen, welche man bei den Zählungen der Primzahlen bemerkt hat.“
Das hohe Ansehen, das Hilbert genoss, beflügelte die Mathematiker, sich mit seinen Problemen, darunter der Zeta-Funktion, auseinanderzusetzen. Bis heute gelten 15 der 23 Probleme als gelöst, jedoch nicht die Riemannsche Vermutung.[62]
Ramanujans Arbeit zur Zeta-Funktion
Im Jahre 1910 veröffentlichte der indische Mathematiker Srinivasa Ramanujan im Journal of the Indian Mathematical Society einen Artikel, in dem unter anderem die folgende Gleichung behauptet wurde:
Die meisten Mathematiker, die diese Gleichung zu Gesicht bekamen, hatten sie als offensichtlichen Schwachsinn gewertet. So kam es, dass Professor Hill vom University College in London schrieb:
„Mr. Ramanujan ist ein Opfer der Fallstricke des sehr schwierigen Gebietes der divergenten Reihen geworden.“
Hill verhielt sich jedoch nicht völlig ablehnend und ermutigte Ramanujan, es weiter zu versuchen. Und so schickte dieser seine Ergebnisse direkt an einige Mathematiker in Cambridge. Zwei davon waren nicht in der Lage, die Aussagen hinter Ramanujans verschlüsselten Formeln zu erkennen, und lehnten die Bitte um Unterstützung ab. Als Ramanujan jedoch schließlich auch Godfrey Harold Hardy brieflich auf seine Ideen aufmerksam machte, wurde diesem in der Gleichung die korrekte Auswertung des Werts bewusst, auch wenn sie bezüglich ihrer mathematischen Formalität natürlich inkorrekt war. In diesem Zusammenhang war die Formel schon Euler bekannt, da sie sich aus und der Funktionalgleichung ergibt (beides von Euler gefunden). Ferner erweckte Ramanujans Behauptung, eine Formel zu besitzen, die fast fehlerfrei voraussage, ob eine gegebene Zahl prim sei oder nicht (Ramanujans Formel verwendete jedoch nicht die Nullstellen der Zeta-Funktion[63]), viel Neugier. Auch in einem zweiten Brief gab er jedoch dazu keinen Beweis. Littlewood äußerte:
„Dieser Brief konnte einen rasend machen.“
Der anfänglich ausschließlich schriftliche Austausch gipfelte schließlich in einem Aufenthalt Ramanujans in England, wo sich das Duo aus Ramanujan und Hardy zu einer der produktivsten und außergewöhnlichsten mathematischen Korrespondenzen der Geschichte entwickelte.[65]
Unter anderem nach Auswertung der Tagebücher Ramanujans durch George E. Andrews und Bruce Berndt offenbarten sich die zahlreichen Ideen Ramanujans zur Riemannschen Zeta-Funktion. So fand dieser unabhängig Eulers Formel für ,[66] das Euler-Produkt[67] sowie zahlreiche unendliche Reihen und Integrale, die Zeta-Werte an ganzen und auch halbzahligen[68] Stellen beinhalten.[69][70][71]
Der Nachlass Riemanns
Fünfzig Jahre nach Riemanns Tod tauchten einige nicht verbrannte Seiten wieder auf. Richard Dedekind, ein Kollege von Riemann hatte einige Seiten des Nachlasses von Riemanns Frau Elise erhalten und einige davon in der Bibliothek von Göttingen hinterlegt. Nachdem der Mathematikhistoriker Erich Bessel-Hagen 1926[72] die Schriften fand und beim Versuch einer Entschlüsselung der wirren Aufzeichnungen keinen Erfolg hatte, gingen die Dokumente an Carl Ludwig Siegel. Dieser war erstaunt von der Tiefe der Gedanken Riemanns bezüglich der Zeta-Funktion.[73] Dies entkräftete zugleich viel Kritik an Riemanns Originalarbeit, da die Notizen zeigten, dass Riemanns Behauptungen auf gründlichen Rechnungen beruhten.[74] Jedoch beklagte auch Siegel das Chaos in den Notizen:
„Nichts von dem, was Riemann über die Zeta-Funktion aufgeschrieben hatte, war reif für eine Veröffentlichung. Manchmal findet man unzusammenhängende Formeln auf derselben Seite, oft nur die Hälfte einer Gleichung.“
Siegel kam dahinter, dass Riemann ausschließlich über handschriftliche Rechnungen mindestens drei nicht-triviale Nullstellen der Zeta-Funktion relativ genau berechnet hatte. Die dafür verwendete Formel wurde durch Siegel ausgearbeitet, 1932 publiziert und wird seitdem auch Riemann-Siegel-Formel genannt.[76]
Nach 1945 bis heute
Im Zeitalter des Computers
In der Forschung rund um die Riemannsche Zeta-Funktion werden Computer vor allem dazu benutzt, die Korrektheit der Riemannschen Vermutung für möglichst viele Nullstellen zu überprüfen. Obwohl es sich bei allen Rechnungen um numerische Verfahren handelt, zeigen diese exakt und nicht nur annähernd, dass sich die untersuchten Nullstellen auf der kritischen Geraden befinden.[77][78]
Bereits im Jahr 1936 hatte der in Oxford wirkende Mathematiker Edward Charles Titchmarsh mit einer Maschine, die ursprünglich für astronomische Berechnungen konstruiert worden war, die ersten 1.041 nicht-trivialen Nullstellen der Zeta-Funktion berechnet.[79] Im Jahr 1953 wurden diese Berechnungen von Alan Turing fortgesetzt. Seine Methode wird bis heute benutzt. Erstmals kam dabei ein Computer zum Einsatz.[80][81]
Ab Beginn der 80er Jahre wurden die Computer immer leistungsstärker. Bereits im Jahr 1979 hatte eine Gruppe aus Amsterdam um Herman te Riele und Richard P. Brent 200 Millionen Nullstellen überprüft (etwas später erhöhten sie ihre Rechnung auf 300 Millionen) – alle lagen auf der kritischen Geraden. Damit widersprachen sie einer Vorhersage von Don Zagier, der geäußert hatte, es sei „ein Wunder“, falls diese immer noch ausnahmslos auf der kritischen Geraden lägen.[82] Zagier berief sich dabei auf theoretische Gründe, die zwar die Lage der ersten paar Tausend Nullstellen auf der Geraden bekräftigten, jedoch für steigende Zahlen schwächer – und letztlich sogar dagegen sprechend – auszulegen waren.
Bis 2005 wurden im Rahmen des sog. ZetaGrid Project durch verteilte Rechner die ersten 900 Milliarden Nullstellen überprüft. Um dieselbe Zeit berechnete Xavier Gourdon mit Unterstützung von Patrick Demichel die ersten 10 Billionen () Nullstellen.[83][84] Alle lagen auf der kritischen Geraden.
Zahlentheorie trifft Quantenphysik
Im Jahr 1972 offenbarte sich durch ein zufälliges Gespräch zwischen dem Physiker Freeman Dyson und dem Mathematiker Hugh Montgomery ein bis dahin unbemerkter Zusammenhang zwischen Quantenphysik und Zahlentheorie. Gegenstand der Diskussion waren die Nullstellen der Riemannschen Zeta-Funktion. In deren von Montgomery vermuteten Verteilung erkannte Dyson die Abstände zwischen Paaren von Eigenwerten von Hermitschen Zufallsmatrizen wieder. Diese werden von Quantenphysikern zur Vorhersage der Energieniveaus in einem schweren Atomkern verwendet, wenn dieser mit nieder-energetischen Neutronen bestrahlt wird. Als Montgomery sich die Abstände zwischen den Energieniveaus in dem Atomkern Erbium, dem 68. Element im Periodensystem, anschaute, erkannte er eine auffallende Ähnlichkeit. Die allgemeine Übereinstimmung zwischen einem gewissen Ausschnitt der Nullstellenorte auf der kritischen Geraden und den experimentell bestimmten Energieniveaus zeugte von großer Signifikanz.[86]
Durch umfassenden Einsatz von Computern wurde die Vermutung von Montgomery über die Nullstellenabstände von Andrew Odlyzko überprüft. Die Zahlen sprachen dabei für Montgomerys Annahme. 1987 publizierte Odlyzko seine Ergebnisse.[87]
Trotz starker Evidenzen wurden die Ergebnisse teilweise skeptisch gesehen. Es kam die Frage auf, ob damit irgendwelche Fortschritte in der reinen Mathematik erzielt worden waren. So äußerte der Zahlentheoretiker Peter Sarnak aus Princeton:
„Es ist ja recht faszinierend, die gleichen Bilder in beiden Gebieten zu sehen, doch wer kann einen wirklichen Beitrag zur Zahlentheorie nennen, der dadurch erst möglich geworden ist?“
Jonathan Keating, ein Schüler des Physikers Michael Berry, lieferte schon bald eine zahlentheoretische Anwendung. Berry hatte sich zuvor schon mit Zusammenhängen zwischen Primzahlen und Quantenphysik beschäftigt (insbesondere Verbindungen zum Quantenchaos). Doch es waren schließlich Keating und seine Doktorandin Nina Snaith, die mit Hilfe statistischer Methoden (die häufig in der Quantenphysik zum Einsatz kommen) eine exakte Formel für das durchschnittliche Verhalten von Potenzen der Absolutwerte der Zeta-Funktion entlang der kritischen Geraden aufstellten. Diese Durchschnittswerte sind für die Zahlentheorie von Bedeutung und haben viele Anwendungen, zum Beispiel auf das Dirichletsche Teilerproblem. Wenige Minuten vor Keatings Vorstellung der Ergebnisse hatte er zusammen mit Snaith die Formel an einer Tafel „getestet“, indem sie schauten, ob ein bereits mühsam erarbeitetes Ergebnis korrekt vorausgesagt würde. Das Besondere an der Herangehensweise von Keating und Snaith, die unter anderem von Atle Selberg gelobt wurde[89], war, dass sie Primzahlen dabei als Zufallsvariablen, also gewissermaßen Resultate eines Münzwurfes interpretierten. Sarnak lenkte ein und gestand zu, dass ohne diesen fremdartigen Ansatz eine solche Vermutung über die Zeta-Funktion nicht hätte erarbeitet werden können.[90]
Montgomerys Paarkorrelations-Vermutung und das asymptotische Verhalten der Zeta-Momente sind bis heute Gegenstand intensiver Forschung.
Die Riemannsche Vermutung bis heute
Spätestens nachdem Hilbert die Riemannsche Vermutung auf die Liste seiner Probleme genommen hatte, erweckte sie das Interesse zahlreicher Mathematiker. Doch bis heute erweist sich das Problem als außerordentlich schwierig.
Nachdem 1942 Atle Selberg gezeigt hatte, dass ein positiver Anteil der Nullstellen auf der kritischen Geraden liegen muss, entwickelte sich daraus ein wahrer Wettlauf um die Größe dieses Anteils. Norman Levinson zeigte, dass gut ein Drittel die Vermutung erfüllen, und Brian Conrey zeigte 1989, dass es sogar gut 40 Prozent sind. Ob diese Methoden aber letztlich zu einer Lösung führen, gilt als umstritten. Nicht mal ein solcher Beweis, dass „100 Prozent“ (in einem asymptotischen Sinn) der Nullstellen der Vermutung gehorchen, wäre zwingend zielführend, da die Anzahl der Nullstellen unendlich groß ist. Ähnliche Bedenken existieren gegenüber den unternommenen Anstrengungen, nullstellenfreie Regionen zu optimieren.
Stephen Smale, Träger der Fields-Medaille, veröffentlichte 1998 seine eigene – im Sinne von Hilbert verfasste – Liste von 18 Problemen. Problem Nummer 1 ist die Riemannsche Vermutung. Bisher wurden nur wenige Probleme auf Smales Liste gelöst (siehe Smale-Probleme).
Weitere Berühmtheit erlangte die Riemannsche Vermutung, als sie im Jahr 2000 vom Clay Mathematics Institute (CMI) auf die Liste der Millennium-Probleme gesetzt wurde.[91] Für einen schlüssigen Beweis ist damit ein Preisgeld von 1 Million US-Dollar ausgelobt.
Praktische Anwendungsgebiete
Es werden im Folgenden Anwendungen mit praktischem Bezug gegeben. Beziehungen zur mathematischen und physikalischen Grundlagenforschung finden sich weiter unten in den Bereichen:
- Analytische Zahlentheorie
- Algebraische Zahlentheorie und Geometrie
- Automorphe Formen
- Wahrscheinlichkeitstheorie und Statistik
Schnelle Primzahltests
Ein Primzahltest ist ein Algorithmus, der überprüft, ob eine gegebene Zahl eine Primzahl ist. Verfährt man hier völlig naiv, muss dafür nachgerechnet werden, ob eine der Zahlen mit ein Teiler von ist. Teilt keine dieser Zahlen , so muss es eine Primzahl sein, da jeder Teiler größer als zu einem Teiler kleiner als korrespondiert über . Dieses Verfahren erfordert ca. Rechenoperationen, da ungefähr Quotienten gebildet und ausgewertet werden müssen. Damit wird es, trotz seiner Einfachheit, als aufwändig erachtet.
Die Lage der Nullstellen der Riemannschen Zeta-Funktion spielt eine Rolle beim Beweis der Existenz schnellerer Primzahltests. Unter der Annahme der Verallgemeinerten Riemannschen Vermutung konnte Gary L. Miller 1976 zeigen, dass es einen deterministischen Primzahltest gibt, der in Schritten (d. h. „schnell“) prüft, ob eine Primzahl ist oder nicht.[92] Der Begriff Verallgemeinerte Riemannsche Vermutung bedeutet, dass nicht nur die Riemannsche Zeta-Funktion, sondern auch sämtliche Dirichletschen L-Funktionen niemals für Argumente mit den Wert Null annehmen.
1980 gelang es Michael O. Rabin diesen zu einem probabilistischen Test umzuwandeln, der zwar niemals ein Ergebnis zu 100 Prozent korrekt ausgibt, jedoch nach hinreichend vielen Schritten sehr zuverlässig ist. Dieser funktioniert unabhängig von der Riemannschen Vermutung.[93]
Große Primzahlen werden bei der Verschlüsselung von Daten (zum Beispiel im Internet) verwendet. Die Sicherheit solcher Systeme beruht auf der Annahme, dass es kein schnelles Verfahren gibt, eine Zahl in ihre Primfaktoren zu zerlegen. Beim RSA-Kryptosystem nimmt eine Person, die eine Nachricht verschlüsseln möchte, zwei große Primzahlen und mit großem Abstand zueinander, und bildet die zusammengesetzte Zahl . Mit Hilfe dieser können nun Nachrichten (wenn zuvor in Zahlen umgewandelt) durch einen öffentlichen Schlüssel, der aus und erzeugt wurde, verschlüsselt werden. Dieser Schlüssel steht jedermann zur Verfügung, gibt jedoch keine Einsicht in das Kryptosystem an sich. Mit dem Wissen um und kann eine Nachricht aus der Öffentlichkeit an den Privatmenschen anschließend wieder entschlüsselt werden, da mit dem Wissen um und auch der „Gegenschlüssel“ erzeugt werden kann, der den Klartext wieder herstellt. Dieser Gegenschlüssel steht nur der Privatperson zur Verfügung und ist daher ein privater Schlüssel. Zum Brechen des Systems ist folglich die Faktorisierung von erforderlich.
Physik
In der Physik spielt die Riemannsche Zeta-Funktion eine vielseitige Rolle. Anwendungen haben etwa spezielle Funktionswerte:[94]
- Der Wert wird u. a. bei der Berechnung der kritischen Temperatur für die Ausbildung eines sogenannten Bose-Einstein-Kondensats und in der Spinwellen-Theorie bei magnetischen Systemen benötigt.
- Der Wert wird im Hochtemperatur-Limes in der Zustandsdichte für den harmonischen Oszillator gebraucht.
- Der Wert wird in der Zustandsdichte für ein freies Bosonengas benutzt.
- Die Konstante steht im Zusammenhang mit dem Integral über die Strahlungsdichte der Planckschen Schwarzkörperstrahlung.
Regularisierung von Determinanten
Zeta-Funktionen sind eine Möglichkeit zur Regularisierung von Funktionaldeterminanten von Operatoren auf unendlich-dimensionalen Räumen, der Vorgang nennt man Zetafunktions-Regularisierung. Solche Regularisierungen haben Anwendungen in der Physik, zum Beispiel in der Quantenfeldtheorie und in der String-Theorie.[95] Dabei werden, ähnlich wie es bereits Ramanujan tat, divergenten Reihen endliche Werte zugeordnet. Ein Anwendungsbeispiel einer solchen Regularisierung betrifft den Casimir-Effekt.[96]
Die Formel von Ramanujan und Euler für kann heuristisch dazu dienen, auf einfache Weise die Notwendigkeit von 26 Raum-Zeit-Dimensionen in der bosonischen Stringtheorie abzuleiten.[97]
Das Zipfsche Gesetz
Das Zipfsche Gesetz wurde ursprünglich in der quantitativen Linguistik formuliert und besagt, dass bei einem Korpus von natürlichsprachlichen Äußerungen die Häufigkeit eines Wortes umgekehrt proportional zu seinem Rang in der Häufigkeitstabelle ist.[98] So wird das häufigste Wort etwa doppelt so oft vorkommen wie das zweithäufigste Wort, dreimal so oft wie das dritthäufigste Wort usw. Bei der Verwendung von verschiedenen Wörtern hat dies eine Wahrscheinlichkeitsverteilung von
mit der harmonischen Folge zur Konsequenz. Je nach Art des Datensatzes kann es aber sein, dass ein anderer Exponent gebraucht wird. Mit der verallgemeinerten harmonischen Folge lässt sich für reelle Parameter die verallgemeinerte Verteilung
beschreiben. Im Falle von lässt sich damit die für „unendlich viele Wörter“ geeignete Zeta-Verteilung erzeugen:[99]
Globale Eigenschaften
Funktionalgleichung
Im Folgenden bezeichnet die Gammafunktion, die die Fakultät auf komplexe Zahlen verallgemeinert. Auf ganz gilt als Identität zwischen meromorphen Funktionen[100]
Aus dieser geht durch einfache Umformung die alternative Darstellung
für alle hervor. Oft wird auch die symmetrische Variante der Funktionalgleichung, nämlich
in der Literatur zitiert. Man beachte die Invarianz, die unter der Variablentransformation entsteht.[101][102][103] Aus der symmetrischen Variante können die oberen Gleichungen mittels der Legendreschen Duplikationsformel und des Eulerschen Ergänzungssatzes hergeleitet werden.
Die Erfüllung einer Funktionalgleichung obigen Typs ist charakteristisch für L-Funktionen (spezielle Dirichlet-Reihen unter anderem mit analytischer Fortsetzung). Diese stehen wegen ihres Transformationsverhaltens oft in Beziehung mit Modulformen. Beispielsweise korrespondiert die Zeta-Funktion zur Jacobischen Theta-Funktion, einer Modulform halbganzen Gewichts. Aus dieser Beziehung geht, startet man mit dem Transformationsverhalten der Theta-Funktion, die Funktionalgleichung hervor.
Die Funktionalgleichung schafft einen Zusammenhang zwischen bedeutenden mathematischen Funktionen und zieht wichtige Resultate bezüglich Nullstellen- und Wachstumsverhalten der Zeta-Funktion nach sich. Sehr vielen Schlussfolgerungen ist dabei folgendes Prinzip gemein: Durch das (wegen absoluter Konvergenz der Dirichlet-Reihe) einfache Verhalten der Zeta-Funktion in der Halbebene wird automatisch eine Trivialisierung der mittels gespiegelten Halbebene erreicht.
In seiner Arbeit definierte Riemann ursprünglich für die ganze Funktion[104]
In der heutigen Konvention ist es allerdings üblicher, statt die Variable zu verwenden; man setzt dann . In dieser neuen Notation gilt dann die Reflexion
Beide Interpretationen werden heutzutage als Riemannsche Xi-Funktion bezeichnet.[105]
Die Funktionalgleichung war schon Euler (1749) bekannt, wenn er sie auch nicht für komplexe Argumente formulierte und nicht bewies, sondern nur in einer so großen Zahl von Fällen überprüfte, dass nach seinen Worten kein Zweifel an ihrer Gültigkeit bliebe.[106][107] Beweise wurden auch 1858 von Oskar Schlömilch veröffentlicht und von Carl Johan Malmstén (1849). André Weil hat darauf hingewiesen, dass ein Beweis der Funktionalgleichung mit der Mellin-Transformation schon in einem Handexemplar der Gauß’schen Disquisitiones Arithmeticae von Gotthold Eisenstein niedergeschrieben ist, mit dem Riemann in seiner Berliner Zeit eng befreundet war.[108]
Charakterisierung durch Hamburger
Im Jahre 1921 gelang es Hans Hamburger, die Riemannsche Zeta-Funktion anhand ihrer Funktionalgleichung wie folgt zu charakterisieren.
Es sei , wobei eine ganze Funktion endlicher Ordnung und eine Polynomfunktion ist, für durch die Dirichlet-Reihe darstellbar. Ferner gelte die Funktionalgleichung
wobei ebenfalls auf der Halbebene als Dirichlet-Reihe darstellbar sei. Dann folgt bereits die Identität .[109]
Transzendenz
Die Riemannsche Zeta-Funktion gehört zur Klasse der transzendenten Funktionen und sogar der hypertranszendenten Funktionen. Das bedeutet, dass sie keiner Polynomgleichung und auch keiner algebraischen Differentialgleichung (mit Koeffizienten in und algebraischen Startwerten) genügt. Dies wurde von V. E. E. Stadigh im Jahre 1902 bewiesen. Entscheidend für den Beweis war die Funktionalgleichung und ein analoges Resultat von Otto Hölder aus dem Jahr 1887[110] über die Gammafunktion:
„Wenn die Funktion und folglich auch die Funktion einer algebraischen Differentialgleichung genügt, muss nach dem im ersten Kapitel bewiesenen Satze auch der Quotient auch dieselbe Eigenschaft besitzen. Nach der obigen Funktionalgleichung ist dieser Quotient aber gleich und es ist also zu zeigen, dass die Funktion keiner algebraischen Differentialgleichung genügt.“
Global konvergente Laurent-Reihe
Als auf holomorphe Funktion mit einfachem Pol in 1 kann man die Riemannsche Zeta-Funktion um ihre Singularität in eine global konvergente Laurent-Reihe (also mit Konvergenzradius ) entwickeln. Diese hat die Form
Bei den Koeffizienten
handelt es sich um die Stieltjes-Konstanten, wobei die Euler-Mascheroni-Konstante ist,[112] für die sich daraus insbesondere der Ausdruck
ergibt.
Ordnung
Die Funktion ist ganz und hat die Wachstumsordnung 1. Das heißt, für jedes gibt es Konstanten und , sodass für alle :[113]
Hierbei ist eine andere Schreibweise für , die Exponentialfunktion. Die Bestimmung der Wachstumsordnung ist ein Zwischenschritt beim Produktsatz von Hadamard, der zur Herleitung von Riemanns Hauptformel gebraucht wird.[114]
Eigenschaften der Dirichlet-Reihe
Für reelle Argumente größer als 1
Abbildungseigenschaften und Folgerungen
Auf dem offenen Intervall ist die Zeta-Funktion eine unbeschränkte, reellwertige und streng monoton fallende Funktion. Insbesondere ist sie in diesem Bereich injektiv. Dabei ist 1 ihre größte untere Schranke, weshalb sie (wegen ihrer Stetigkeit) das Intervall bijektiv auf sich selbst abbildet. Aus ihrer Holomorphie folgt unterdessen sofort, dass sie auf beliebig oft reell differenzierbar (also glatt) ist.
Da , folgt bereits . Eine Eigenschaft analytischer Funktionen ist, unter diesen Voraussetzungen ein Spiegelungsgesetz unter der komplexen Konjugation zu erfüllen: Es gilt .[115] Dies hat wichtige Konsequenzen für die Nullstellenverteilung, da die Nullstellen an der reellen Achse gespiegelt werden und damit paarweise auftreten.
Ungleichungen
Die reelle Dirichlet-Reihe lässt sich in ihrem Konvergenzbereich durch rationale Funktionen einschließen. Es gilt für alle die Abschätzung[116]
Ebenfalls interessant in diesem Bereich ist die Ungleichung[117]
Konvergenzgeschwindigkeit
Definiert man so gilt für alle
wobei . Dies folgt aus der Euler-Maclaurin-Summenformel, die auch zur numerischen Berechnung der Zeta-Funktion herangezogen werden kann. Damit wird gezeigt, dass die Konvergenzgeschwindigkeit der Dirichlet-Reihe für kleiner werdende Realteile stark abnimmt. Zudem folgt, dass die Reihe in keinem Punkt konvergiert.
Verhalten in der vertikalen und horizontalen Richtung
Für unbegrenzt größer werdende Realteile hat die Zeta-Funktion ein leicht zu bestimmendes asymptotisches Verhalten, es gilt
Dies folgt unmittelbar aus der gleichmäßigen Konvergenz der Dirichlet-Reihe in den Bereichen und Vertauschen von Limes und Summation. Vergleiche hierzu auch den komplexen Graphen der Zeta-Funktion zu Beginn des Artikels, der in Richtung der positiven reellen Achse zunehmend konstant rot gefärbt ist.
Für jedes mit gilt
für alle . Diese Abschätzung ist optimal. Mit dem Euler-Produkt und Kroneckers Approximationssatz lassen sich nämlich zusätzlich die Aussagen
beweisen.[118] Ebenfalls mit Approximationsmethoden kann bewiesen werden, dass für jedes ein existiert, sodass[119]
gilt.
Beziehungen zu zahlentheoretischen Funktionen
Die Dirichlet-Reihen einiger elementarer und wichtiger (sehr häufig multiplikativer) zahlentheoretischer Funktionen können über die Riemannsche Zeta-Funktion ausgedrückt werden. Von großer Bedeutung ist dabei zum Beispiel die Beobachtung, dass das multiplikative Inverse der Zeta-Funktion wieder durch eine Dirichlet-Reihe dargestellt werden kann. Es gilt die Formel
wobei hier die Möbiusfunktion bezeichnet. Die Reihe zur Rechten konvergiert (wegen für alle ) absolut auf der Halbebene , und, falls die Riemannsche Vermutung richtig ist, sogar (bedingt) auf der Halbebene (was man mittels partieller Integration sieht).[120] Zur informellen Erklärung der Dirichlet-Reihen-Identität betrachtet man
also den Kehrwert des Euler-Produkts, und bildet durch konsequentes Ausmultiplizieren die dazugehörige Dirichlet-Reihe.[121]
Die Dirichlet-Faltung für zahlentheoretische Funktionen ist ein Homomorphismus vom Ring der zahlentheoretischen Funktionen in den Ring der formalen Dirichlet-Reihen . Mittels dieser ergeben sich weitere Identitäten. Für die Zahlentheorie wichtig sind dabei zum Beispiel Formeln wie
mit der Teilerfunktion oder auch
mit der Eulerschen Phi-Funktion. Es existiert darüber hinaus eine ganze Schar weiterer Identitäten. So geht zum Beispiel die Formel
auf Ramanujan zurück.[122] Diese Identitäten zeugen von einer engen Verbindung zwischen zahlentheoretischen Funktionen auf der einen Seite und einer mit guten analytischen Eigenschaften wie zum Beispiel globaler Meromorphie ausgestatteten Funktion auf der anderen Seite. Mittels Methoden der analytischen Zahlentheorie können damit oft frappierende Verhaltensmuster dieser zahlentheoretischen Funktionen bewiesen werden. Zwei wichtige Techniken dafür, die Selberg-Delange-Methode und die Verwendung von Taubersätzen, werden in diesem Artikel beschrieben.
Dirichlet-Reihe der Ableitungen und Stammfunktion
Ihre -te Ableitung besitzt für Argumente mit Realteil größer als 1 die Darstellung
Dies folgt mittels gliedweiser Differentiation, was wegen gleichmäßiger Konvergenz der Reihe auf kompakten Teilmengen erlaubt ist. Ähnlich gilt dort für eine Stammfunktion:
Spezielle Funktionswerte
Für positive gerade Argumente sind die Funktionswerte der Zeta-Funktion sämtlich bekannt. So fand Leonhard Euler die Formel
wobei die -te Bernoulli-Zahl bezeichnet.[123] Insbesondere gilt
Die Frage nach dem Wert von ist auch als Basler Problem bekannt und galt lange als ungelöst. Über die Funktionalgleichung erhält man weiter[124]
für alle . Insbesondere hat man
und es gilt für .
Im Gegensatz dazu sind geschlossene Ausdrücke für positive ungerade Werte bisher nicht bekannt. Man weiß jedoch, dass die Apéry-Konstante irrational ist. Dies wurde 1979 von Roger Apéry beweisen.[125]
Nullstellen
Triviale Nullstellen
Aus der Darstellung als Euler-Produkt kann man leicht folgern, dass für gilt. Zusammen mit der Funktionalgleichung der Zeta-Funktion und den Polstellen der Gamma-Funktion ergibt sich, dass die einzigen Nullstellen außerhalb des kritischen Streifens die „trivialen“ Nullstellen sind. Diese sind alle einfach, denn es gilt für alle
Nichttriviale Nullstellen
Neben den trivialen Nullstellen besitzt die Zeta-Funktion weitere Nullstellen im kritischen Streifen . Diese werden auch als nicht-triviale Nullstellen bezeichnet, da bis heute nur sehr wenig über deren genaue Lage bekannt ist. Aus ihrer Verbindung zur Dirichletschen Etafunktion,
kann man zumindest folgern, dass für alle reellen gilt.
Existenz und asymptotische Verteilung
Aufgrund des Euler-Produktes und der Funktionalgleichung müssen alle nicht-trivialen Nullstellen innerhalb des abgeschlossenen kritischen Streifens liegen, falls sie existieren. Dass es sogar unendlich viele nicht-triviale Nullstellen gibt, war bereits Riemann bewusst:
„Die Anzahl der Wurzeln von , deren reeller Theil zwischen und liegt, ist etwa denn das Integral positiv um den Inbegriff der Werthe von erstreckt, deren imaginärer Theil zwischen und und deren reeller Theil zwischen und liegt, ist (bis auf einen Bruchtheil von der Ordnung der Größe ) gleich ; dieses Integral aber ist gleich der Anzahl der in diesem Gebiet liegenden Wurzeln von .“
Riemann gab in seiner Arbeit also eine Formel zur asymptotischen Verteilung der nicht-trivialen Nullstellen erstmals an. Er behauptete, die Anzahl (mit Vielfachheit gerechnet) der Nullstellen innerhalb des Rechtecks erfülle die asymptotische Äquivalenz
Seinen Gedankengang begründete er (wie oben knapp beschrieben) über eine Auswertung des nullstellenzählenden Integrals
wobei die (etwas anders skalierte) Riemannsche Xi-Funktion bezeichnet, die insbesondere dieselben Nullstellen im kritischen Streifen besitzt wie die Zeta-Funktion. Diese Aussage wurde jedoch erst über 50 Jahre nach Riemanns Veröffentlichung von Mangoldt rigoros bewiesen.[127] Beim Beweis macht man sich die Funktionalgleichung zunutze. Ein von Gérald Tenenbaum gegebener Standardbeweis nutzt das erweiterte Rechteck und kommt zu
wobei wegen der ganzen Symmetrien von auch über den Linienzug integriert werden kann.[128] Mittels der einfachen Formel für logarithmische Ableitungen, und der Tatsache, dass Imaginärteile des Logarithmus über das Argument gegeben sind, folgt
Während die meisten Faktoren der -Funktion in dieser Formel leicht auszuwerten sind und die Größenordnung liefern, besteht der schwierigste Teil in der Schätzung
Der Fehler konnte bis heute nicht verbessert werden.[129] Von Littlewood stammt die Einsicht, dass die Imaginärteile der nicht-trivialen Nullstellen immer dichter zusammenrücken. Setzte man also (wobei die nach wachsenden, positiven Imaginärteilen aufsteigende Folge der nicht-trivialen Nullstellen bezeichnet), so gilt also . Dies folgert man recht direkt aus der asymptotischen Äquivalenz[129]
Symmetrieeigenschaften
Die Funktionalgleichung der Zeta-Funktion und ihre grundlegende Spiegelungseigenschaft bezüglich konjugierter Argumente implizieren ein paarweises Auftreten der nicht-trivialen Nullstellen. Ist z. B. eine Nullstelle im kritischen Streifen, so ist aufgrund der Funktionalgleichung
auch Nullstelle. Zusätzlich aber ist , weshalb auch Nullstelle ist; analog aber auch Zu bemerken ist, dass alle Werte und im kritischen Streifen liegen, dort zu einem Rechteck verbunden werden können und somit quasi ein Nullstellen-Doppelpaar bilden.
Ist jedoch die Riemannsche Vermutung richtig, so liegen alle Nullstellen auf der Geraden , wobei dann stets bzw. gilt.
Summen und Reihen
Es gilt die Identität[130]
Dabei ist die Euler-Mascheroni-Konstante. Die Reihe über alle konvergiert jedoch keinesfalls absolut. Summiert man die Absolutbeträge, ergibt sich
Diese Formel ist bei der Herleitung der expliziten Restgliedabschätzungen (auch unter Annahme der Riemannschen Vermutung) des Primzahlsatzes erforderlich.[131]
Ordnungen
Über die Ordnung der nicht-trivialen Nullstellen ist bis heute wenig bekannt. Es wird angenommen, dass alle Nullstellen der Zeta-Funktion die Ordnung 1 haben. Diese Vermutung wird von numerischen Untersuchungen unterstützt: Bisher waren alle gefundenen Nullstellen von erster Ordnung.
J. B. Conrey, A. Ghosh und S. M. Gonek fanden jedoch Aussagen unter der Annahme der Riemannschen Vermutung und der verallgemeinerten Lindelöfschen Vermutung. Letztere besagt, dass für alle und jeden Dirichlet-Charakter modulo die zugehörige L-Funktion für anwächst wie
Setzt man beides voraus, ergibt sich für die Anzahl der einfachen Nullstellen :[132]
2013 konnten H. M. Bui und D. R. Heath-Brown zeigen, dass man dies im Wesentlichen auch ohne die Lindelöfsche Vermutung beweisen kann.[133] Des Weiteren gilt für Werte
wobei über Nullstellen summiert wird. Also liegt in jedem Intervall der Imaginärteil einer einfachen Nullstelle.[134]
Nach einer Vermutung von Hardy und Littlewood existiert für jedes eine Zahl , sodass die Funktion für alle im Intervall eine Nullstelle von ungerader Ordnung hat. Zudem gibt es eine Konstante , so dass
gilt. Hierbei ist die Anzahl der Nullstellen ungerader Ordnung auf .[135]
Im Falle, dass alle Nullstellen einfach sein sollten, kommt den nicht-verschwindenden Werten eine Bedeutung zu über die für nicht-natürliche gültige Formel:
Dabei ist die Möbiusfunktion. Diese kann jedoch nur unter zusätzlichen Annahmen an das Verhalten der Zeta-Funktion im kritischen Streifen gezeigt werden; dies bezieht sich auch darauf, über welchen Intervallen die partiellen Nullstellensummen zu erstrecken sind.[136]
Nullstellenfreie Regionen
Bereits Ende des 19. Jahrhunderts konnte mit Hilfe eines einfachen Widerspruchsbeweises gezeigt werden, dass die Zeta-Funktion keine Nullstellen auf der Geraden besitzt. Grundlage dieses Beweises ist die von Mertens gezeigte, für alle mit gültige Ungleichung[137]
Diese nullstellenfreie Region konnte danach immer weiter vergrößert werden. So wurde gezeigt, dass eine Konstante existiert, sodass für keinen Wert mit
eine Nullstelle besitzt.[138] Solche Verbesserungen führen (in verallgemeinerter Form für Dirichletsche L-Funktionen) unter anderem zum Satz von Siegel-Walfisz.[139]
Das bis heute schärfste nullstellenfreie Gebiet, mit großem technischem Aufwand gewonnen, ist für gegeben durch[140]
Dieses führt beim Primzahlsatz zu einem verbesserten Fehler: Für eine Konstante gilt[141][142]
Ein expliziter Wert für die Konstante in der Fehlerfunktion, nämlich , wurde 2002 von Ford gegeben.[143] Insbesondere ist nicht bekannt, ob es ein gibt, sodass gilt für alle mit .[144]
Die Riemannsche Vermutung
Riemann vermutete im Jahr 1859, dass alle nicht-trivialen Nullstellen auf der parallel zur imaginären Achse verlaufenden Geraden liegen. Wegen der Funktionalgleichung ist dies äquivalent zu für alle . Diese sogenannte Riemannsche Vermutung konnte bislang weder bewiesen noch widerlegt werden.
Die Lage der Nullstellen im kritischen Streifen hängt eng mit Aussagen über die Verteilung der Primzahlen zusammen. Beispielsweise ist die Aussage, dass auf dem Rand des kritischen Streifens keine Nullstellen liegen, ein möglicher Zwischenschritt beim Beweis des Primzahlsatzes. Mit anderen Worten: Die Nullstellen kodieren die Abweichung der Primzahlfunktion von der durch den Primzahlsatz gegebenen Größenordnung (Integrallogarithmus). Deren (durch das nicht mehr konvergente Euler-Produkt) gewährleistete Existenz ist also als natürliche Barriere zu verstehen, die eine gewisse Unschärfe bei der Identifikation als Tribut fordert. Doch obwohl man weiß, dass diese Unschärfe natürlicherweise existiert, ist ihre Intensität nicht geklärt und hängt mit der Verteilung der Nullstellen zusammen. Je näher sich Nullstellen an der Geraden befinden, desto größer werden die Abweichungen sein. Gilt für alle mit , so folgt für alle [146]
Liegen jedoch alle Nullstellen auf der mittleren Geraden , so ist diese Unschärfe kleinst möglich (man beachte, dass mit auch nicht-triviale Nullstelle ist). Dies hätte eine erstaunliche Glattheit bei der Verteilung der Primzahlen zur Folge, zum Beispiel gölte nach Lowell Schoenfeld dann ganz explizit[147]
Hierbei ist zu beachten, dass zwar beliebig groß wird, jedoch asymptotisch betrachtet deutlich kleiner als ist.
Atle Selberg gab 1946 folgende Einschätzung:
„Ich denke, wir glauben deshalb so gerne an die Richtigkeit der Riemannschen Vermutung, weil es die schönste und einfachste Verteilung für die Nullstellen ist, die wir uns vorstellen können. Es gibt diese Symmetrie entlang der kritischen Geraden. Außerdem hätte sie die natürlichste Verteilung der Primzahlen zur Folge. Irgendwie möchten wir gerne glauben, dass zumindest etwas in diesem Universum richtig sein sollte.“
Resultate zur Lage auf der kritischen Geraden
Im Jahr 1914 konnte Godfrey Harold Hardy zeigen, dass unendlich viele nicht-triviale Nullstellen auf der kritischen Geraden liegen. In seinem damals revolutionären Beweis machte er sich zunutze, dass für alle reellen Zahlenwerte der Ausdruck
nur reelle Funktionswerte annimmt. Dies vereinfachte das Problem auf die zu klärende Existenz unendlich vieler Nullstellen einer reellwertigen Funktion. Der durch Widerspruch geführte Beweis (siehe Reductio ad absurdum) zeigt auf, dass für unendlich oft sein Vorzeichen wechseln muss, was mit dem Zwischenwertsatz schon zeigt, dass unendlich viele Nullstellen auf besitzt.[149]
1921 verbesserte Hardy zusammen mit seinem Freund und Kollegen John Edensor Littlewood die Aussage auf das wesentlich stärkere Resultat, dass für hinreichend große Werte die Anzahl der Nullstellen auf der kritischen Geraden im Segment mindestens beträgt, wobei eine positive Konstante bezeichnet.
Atle Selberg verbesserte dieses Ergebnis 1942 auf [150] und zeigte außerdem, dass ein positiver Anteil aller Nullstellen auf der kritischen Geraden liegen.[151] Es gibt also eine Konstante , sodass
Für diesen und andere Beiträge wurde er im Jahre 1950 mit der Fields-Medaille geehrt. Ab diesem Punkt wurde daran gearbeitet, möglichst hohe Werte für zu finden.
Anfang der 1970er Jahre konnte Norman Levinson zeigen, dass mindestens ein Drittel () der nicht-trivialen Nullstellen auf der kritischen Geraden liegen muss, wobei jedoch als hinreichend groß vorausgesetzt wird.[152] 1989 verbesserte Conrey diesen Wert auf , wobei er Techniken von Levinson verfeinerte.[153]
Numerische Berechnungen
Bereits früh gab es Anstrengungen, die Riemannsche Vermutung und andere Phänomene durch explizite numerische Berechnungen zu überprüfen. Die Methoden wurden, insbesondere im Zeitalter von leistungsstarken Computern, explosionsartig besser. Bisher liegen alle gefundenen nicht-trivialen Nullstellen auf der Geraden . Da es unendlich viele nicht-triviale Nullstellen gibt, können Algorithmen jedoch höchstens für die Suche eines Gegenbeispiels und nicht für einen Beweis der Riemannschen Vermutung herangezogen werden.
Numerische Werte der frühen Nullstellen
Die Imaginärteile der „ersten“ Nullstellen sind beispielsweise[154]
±k | ±Im(ρk) | ±k | ±Im(ρk) |
---|---|---|---|
1 | 14,134725141734693790… | 11 | 52,970321477714460644… |
2 | 21,022039638771554993… | 12 | 56,446247697063394804… | <