Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Donald Newmans Beweis des Primzahlsatzes – Wikipedia
Donald Newmans Beweis des Primzahlsatzes – Wikipedia 👆 Click Here!
aus Wikipedia, der freien Enzyklopädie

Donald Newmans Beweis des Primzahlsatzes stammt aus dem Jahr 1972 und benutzt primär Mittel der Funktionentheorie. Das Manuskript von Donald Newman mit dem Titel Simple analytic proof of the prime number theorem erschien 1980 im American Mathematical Monthly. Der Beweis ist bekannt durch seine besondere Kürze und damit relativ hohe Zugänglichkeit.

Der Primzahlsatz trifft eine Aussage über die asymptotische Häufigkeitsverteilung von Primzahlen. Erstmals bewiesen wurde er im Jahr 1896, unabhängig von Jacques Hadamard und Charles-Jean de La Vallée Poussin. Deren Beweise verwendeten ebenfalls funktionentheoretische Mittel, gelten jedoch als aufwändig und überholt. Zwar wurden im Jahr 1948 sogenannte „elementare“ Beweise des Primzahlsatzes von Atle Selberg und Paul Erdös gegeben, wofür Selberg 1950 unter anderem die Fields-Medaille erhielt, jedoch bezieht sich diese Bezeichnung nur auf die ohne Funktionentheorie auskommende Methodik und nicht den Schwierigkeitsgrad.

Zum vollen Verständnis des Beweises von Newman sind lediglich Grundlagen aus der Analysis (wie Konvergenz von Reihen und Produkten, Ungleichungen, Differential- und Integralrechnung), der elementaren Zahlentheorie (wie Primzahlen und Teilbarkeit) und der Funktionentheorie (wie holomorphe Funktionen, die Cauchysche Integralformel und Weierstraßscher Konvergenzsatz) vonnöten. Ferner wurde er in verschiedene Standardwerke zur Funktionentheorie übernommen, etwa bei Theodore W. Gamelin und Serge Lang.

Der Primzahlsatz

[Bearbeiten | Quelltext bearbeiten]
→ Hauptartikel: Primzahlsatz

Bereits seit der Antike ist bekannt, dass es unendlich viele Primzahlen gibt, weshalb die Liste 2, 3, 5, 7, 11, 13, … niemals endet. Der erste Beweis dieser Aussage stammt von Euklid, weshalb das Ergebnis auch Satz des Euklid genannt wird.

Die bloße Unendlichkeit einer Teilmenge der natürlichen Zahlen sagt noch nicht allzu viel über deren Natur aus. Zum Beispiel gibt es unendlich viele gerade Zahlen 2, 4, 6, 8 … und unendlich viele Quadratzahlen 1, 4, 9, 16 …, jedoch weisen beide Folgen bei genauem Hinsehen ein unterschiedliches Verhalten auf. Während zum Beispiel die Differenz zweier aufeinanderfolgender gerader Zahlen stets 2 ist, nehmen die Abstände der Quadratzahlen immer weiter zu, etwa 4 − 1 = 3, 9 − 4 = 5 und 16 − 9 = 7. Beide Folgen haben jedoch ein sehr reguläres Muster gemein, d. h., sie können über einfache Rechenoperationen bestimmt werden. Zum Beispiel ist die n-te gerade Zahl einfach 2n. Im Gegensatz dazu ist bis heute kein einfaches Muster unter der Folge 2, 3, 5, 7, 11, …, 59, 61, 67, … der Primzahlen entdeckt worden. Zum Beispiel gibt es kein „schnelles“ Verfahren, die n-te Primzahl zu berechnen. Die genaue Natur der Primzahlen ist bis heute ein bedeutendes offenes Problem.

Es zeigt sich jedoch, dass es auf lange Sicht Muster unter den Primzahlen zu erkennen gibt. Betrachtet man also haufenweise Primzahlen zur gleichen Zeit, so können durch „Mittelwertbildung“ reguläre Strukturen erkannt werden. Das Prinzip hinter dieser Tatsache ist von statistischer Natur. Statistik bedeutet hierbei, aus einer großen Menge von Daten Muster herauszufiltern, obwohl das „exakte Verhalten“ der einzelnen Datenobjekte (oder Subjekte) sehr kompliziert sein kann. So sind etwa alle Menschen sehr komplex, doch im Verhalten sehr vieler Menschen zur gleichen Zeit können Muster oftmals erkannt werden, die dann in Form von Wahrscheinlichkeiten auf Individuen zurück schließen lassen. Also geht es bei diesen Überlegungen zunächst um die Frage, wie die Verteilung der Primzahlen zu verstehen ist, mit anderen Worten, wie viele Primzahlen unterhalb einer vorgegebenen Schranke zu erwarten sind. Zum Beispiel sind nur 4 Primzahlen, nämlich 2, 3, 5 und 7, kleiner als die Zahl 10. Im Falle der oberen Schranke 150 gibt es schon 35 kleinere Primzahlen, nämlich

2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97, 101, 103, 107, 109, 113, 127, 131, 137, 139, 149.
Der blau unterlegte Flächeninhalt zwischen dem Graphen der Funktion 1 log ⁡ ( t ) {\displaystyle {\tfrac {1}{\log(t)}}} {\displaystyle {\tfrac {1}{\log(t)}}} und der t-Achse im Intervall von 50 bis 150 schätzt die Anzahl der Primzahlen, die zwischen 50 und 150 liegen. Wegen der abgeflachten Kurve mit etwa 0,2 Längeneinheiten Höhe und einer Breite von 150 − 50 = 100 Längeneinheiten, schätzt „das bloße Auge“ einen Wert von 0,2 · 100 = 20 Primzahlen zwischen 50 und 150.
Schaubilder der Primzahl zählenden Funktion (blau) und des Integrallogarithmus (orange) im Bereich 3 bis 1000

Dabei sind die insgesamt 20 Primzahlen zwischen 50 und 150 in grün markiert. Eine Frage der Zahlentheorie ist, ob es ein universelles und einfaches Prinzip gibt, zumindest zu schätzen, wie viele Primzahlen es unter einer gegebenen Schranke gibt. Erkannt wurde ein solches erstmals in den Jahren 1792/93 vom damals 15-jährigen Carl Friedrich Gauß,[1] nachdem dieser Logarithmentafeln studiert hatte. Gauß vermutete, dass die Anzahl aller Primzahlen von 2 bis zu einer großen Zahl x ungefähr dem Flächeninhalt zwischen der t-Achse und der Funktion t ↦ 1 log ⁡ ( t ) {\displaystyle t\mapsto {\tfrac {1}{\log(t)}}} {\displaystyle t\mapsto {\tfrac {1}{\log(t)}}} im Intervall von 2 bis x {\displaystyle x} {\displaystyle x} entspricht. Dabei ist log ⁡ ( t ) {\displaystyle \log(t)} {\displaystyle \log(t)} der natürliche Logarithmus. Es gilt also die Integral-Näherung[2]

Anzahl der Primzahlen bis x {\displaystyle x} {\displaystyle x} ≈ ∫ 2 x 1 log ⁡ ( t ) d t {\displaystyle \approx \int _{2}^{x}{\frac {1}{\log(t)}}\mathrm {d} t} {\displaystyle \approx \int _{2}^{x}{\frac {1}{\log(t)}}\mathrm {d} t}

und allgemeiner für y > x ≥ 2 {\displaystyle y>x\geq 2} {\displaystyle y>x\geq 2}:

Anzahl der Primzahlen zwischen x {\displaystyle x} {\displaystyle x} und y {\displaystyle y} {\displaystyle y} ≈ ∫ x y 1 log ⁡ ( t ) d t . {\displaystyle \approx \int _{x}^{y}{\frac {1}{\log(t)}}\mathrm {d} t.} {\displaystyle \approx \int _{x}^{y}{\frac {1}{\log(t)}}\mathrm {d} t.}

Zum Beispiel gilt

∫ 50 150 1 log ⁡ ( t ) d t = 22,033 … , {\displaystyle \int _{50}^{150}{\frac {1}{\log(t)}}\mathrm {d} t=22{,}033\ldots ,} {\displaystyle \int _{50}^{150}{\frac {1}{\log(t)}}\mathrm {d} t=22{,}033\ldots ,}

womit sich die Formel wegen des exakten Wertes von 20 Primzahlen zwischen 50 und 150 (siehe oben in grün) ca. um den Wert 2 verschätzt. Das Integral von 1 log ⁡ ( t ) {\displaystyle {\tfrac {1}{\log(t)}}} {\displaystyle {\tfrac {1}{\log(t)}}} kann nicht elementar geschlossen berechnet werden, da der Kehrwert des Logarithmus keine elementare Stammfunktion besitzt. Es definiert somit eine „eigenständige“ Funktion, die auch als Integrallogarithmus Li {\displaystyle \operatorname {Li} } {\displaystyle \operatorname {Li} } bekannt ist:

Li ⁡ ( x ) := ∫ 2 x 1 log ⁡ ( t ) d t . {\displaystyle \operatorname {Li} (x):=\int _{2}^{x}{\frac {1}{\log(t)}}\mathrm {d} t.} {\displaystyle \operatorname {Li} (x):=\int _{2}^{x}{\frac {1}{\log(t)}}\mathrm {d} t.}

Bezeichnet π ( x ) {\displaystyle \pi (x)} {\displaystyle \pi (x)} die exakte Anzahl der Primzahlen unterhalb der Schranke x {\displaystyle x} {\displaystyle x}, so wird die obere Aussage π ( x ) ≈ Li ⁡ ( x ) {\displaystyle \pi (x)\approx \operatorname {Li} (x)} {\displaystyle \pi (x)\approx \operatorname {Li} (x)} wie folgt präzisiert:

lim x → ∞ π ( x ) Li ⁡ ( x ) = 1. {\displaystyle \lim _{x\to \infty }{\frac {\pi (x)}{\operatorname {Li} (x)}}=1.} {\displaystyle \lim _{x\to \infty }{\frac {\pi (x)}{\operatorname {Li} (x)}}=1.}

Für wachsende Werte von x {\displaystyle x} {\displaystyle x} wird also der obige Quotient immer näher gegen 1 streben, also der relative Fehler der Schätzung π ( x ) ≈ Li ⁡ ( x ) {\displaystyle \pi (x)\approx \operatorname {Li} (x)} {\displaystyle \pi (x)\approx \operatorname {Li} (x)} gegen 0 gehen. Auch bei der „Statistik der Primzahlen“ gilt demnach der Grundsatz, dass größer werdende Datenmengen prozentual eine zuverlässigere Prognose erlauben. Gauß legte keinen mathematischen Beweis für diese Vermutung über die Primzahlverteilung vor, und es dauerte noch über 100 Jahre, bis ein solcher – unabhängig voneinander von Jacques Hadamard und Charles-Jean de La Vallée Poussin – im Jahr 1896 erbracht wurde.[3] Dabei bedeutet Beweis nicht, dass alle erdenklichen Werte durchprobiert wurden, was bei unendlich vielen Zahlen unmöglich ist, sondern dass ein auf den mathematischen Axiomen basierendes logisches Argument den Sachverhalt in voller Allgemeinheit belegt. Das damit gezeigte Theorem wird als Primzahlsatz bezeichnet.[2]

Der Beweis

[Bearbeiten | Quelltext bearbeiten]

Newmans Beweis kann in mehrere Schritte unterteilt werden. Anlässlich des 100. Beweisjahres des Primzahlsatzes wurden diese von Don Zagier in einem weiteren Artikel im American Mathematical Monthly zusammengestellt.

Schritt 1: Euler-Produkt der Riemannschen Zeta-Funktion

[Bearbeiten | Quelltext bearbeiten]
→ Hauptartikel: Riemannsche Zeta-Funktion und Euler-Produkt

Für komplexe Zahlen s {\displaystyle s} {\displaystyle s}, deren Realteil größer als 1 ist, ist die Zeta-Funktion definiert durch die Dirichlet-Reihe[4]

ζ ( s ) := ∑ n = 1 ∞ 1 n s = 1 + 1 2 s + 1 3 s + 1 4 s + 1 5 s + 1 6 s + 1 7 s + ⋯ , n s := exp ⁡ ( s log ⁡ ( n ) ) . {\displaystyle \zeta (s):=\sum _{n=1}^{\infty }{\frac {1}{n^{s}}}=1+{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}+{\frac {1}{4^{s}}}+{\frac {1}{5^{s}}}+{\frac {1}{6^{s}}}+{\frac {1}{7^{s}}}+\dotsb ,\,\,\,\,\,\,\,\,\,n^{s}:=\exp(s\log(n)).} {\displaystyle \zeta (s):=\sum _{n=1}^{\infty }{\frac {1}{n^{s}}}=1+{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}+{\frac {1}{4^{s}}}+{\frac {1}{5^{s}}}+{\frac {1}{6^{s}}}+{\frac {1}{7^{s}}}+\dotsb ,\,\,\,\,\,\,\,\,\,n^{s}:=\exp(s\log(n)).}

Eine anschauliche Erklärung dieser Definition findet sich hier.

Wie man mittels des Integralkriteriums für unendliche Reihen zeigen kann, ist diese Reihe im angegebenen Bereich absolut konvergent. Zudem ist die Konvergenz auf kompakten Teilmengen gleichmäßig, weshalb nach dem Satz von Weierstraß die dargestellte Funktion holomorph ist. Wegen der Divergenz der harmonischen Reihe ist diese Darstellung für alle komplexen Zahlen mit Realteil kleiner oder gleich 1 jedoch ungültig. Sie kann aber zu einer in ganz C ∖ { 1 } {\displaystyle \mathbb {C} \setminus \{1\}} {\displaystyle \mathbb {C} \setminus \{1\}} holomorphen Funktion fortgesetzt werden.

Das Euler-Produkt ist eine alternative Darstellung der Zeta-Funktion im Konvergenzbereich der Dirichlet-Reihe. Als Formel geschrieben lautet es:

ζ ( s ) = ∏ p   Primzahl 1 1 − 1 p s = 1 1 − 1 2 s ⋅ 1 1 − 1 3 s ⋅ 1 1 − 1 5 s ⋅ 1 1 − 1 7 s ⋅ 1 1 − 1 11 s ⋅ 1 1 − 1 13 s ⋅ ⋯ , {\displaystyle \zeta (s)=\prod _{p\ {\text{Primzahl}}}{\frac {1}{1-{\frac {1}{p^{s}}}}}={\frac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{3^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{5^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{7^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{11^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{13^{s}}}}}\cdot \cdots ,\quad } {\displaystyle \zeta (s)=\prod _{p\ {\text{Primzahl}}}{\frac {1}{1-{\frac {1}{p^{s}}}}}={\frac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{3^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{5^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{7^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{11^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{13^{s}}}}}\cdot \cdots ,\quad } wobei Re ⁡ ( s ) > 1 {\displaystyle \operatorname {Re} (s)>1} {\displaystyle \operatorname {Re} (s)>1}.

Dabei ist Π {\displaystyle \Pi } {\displaystyle \Pi } das Produktzeichen, und das rechte Produkt erstreckt sich über genau alle Primzahlen. Für unendliche Produkte (nach Euklid gibt es unendlich viele Primzahlen) gelten ähnliche Anschauungen wie für Reihen, nur dass die Faktoren („Glieder des Produktes“) im Laufe der Zeit gegen 1 streben müssen, falls das betroffene Produkt konvergieren soll, da Faktoren nahe 1, genau wie Summanden nahe 0, nur noch wenig am Zwischenwert ändern. Das Euler-Produkt ergibt sich aus der geometrischen Reihe sowie dem Fundamentalsatz der Arithmetik. Es ist andersherum eine analytische Formulierung der Tatsache, dass jede natürliche Zahl n {\displaystyle n} {\displaystyle n} eine eindeutige Primfaktorzerlegung besitzt, wobei die Eindeutigkeit durch die 1 {\displaystyle 1} {\displaystyle 1} im Zähler des Terms 1 n s {\displaystyle {\tfrac {1}{n^{s}}}} {\displaystyle {\tfrac {1}{n^{s}}}} innerhalb der Zeta-Reihe ausgedrückt wird.

Für die detaillierte Herleitung  

Für die formale Herleitung des Euler-Produktes werden lediglich die geometrische Reihe (siehe oben), der Satz, dass jede natürliche Zahl n {\displaystyle n} {\displaystyle n} genau eine Zerlegung als Produkt von Primzahlen besitzt, sowie Ausmultiplizieren von Klammern benötigt. Zu Beginn bewährt es sich, nur eine endliche Anzahl von Primzahlen im Produkt zu beachten. Entwickelt man jeden Term 1 1 − 1 p s {\displaystyle {\tfrac {1}{1-{\frac {1}{p^{s}}}}}} {\displaystyle {\tfrac {1}{1-{\frac {1}{p^{s}}}}}} als eine geometrische Reihe 1 + 1 p s + ( 1 p s ) 2 + ( 1 p s ) 3 + ⋯ {\displaystyle 1+{\tfrac {1}{p^{s}}}+\left({\tfrac {1}{p^{s}}}\right)^{2}+\left({\tfrac {1}{p^{s}}}\right)^{3}+\cdots } {\displaystyle 1+{\tfrac {1}{p^{s}}}+\left({\tfrac {1}{p^{s}}}\right)^{2}+\left({\tfrac {1}{p^{s}}}\right)^{3}+\cdots }, so ergibt sich im Falle nur einer Primzahl

1 1 − 1 2 s = 1 + 1 2 s + 1 2 2 s + 1 2 3 s + ⋯ = 1 + 1 2 s + 1 4 s + 1 8 s + ⋯ {\displaystyle {\frac {1}{1-{\frac {1}{2^{s}}}}}=1+{\frac {1}{2^{s}}}+{\frac {1}{2^{2s}}}+{\frac {1}{2^{3s}}}+\cdots =1+{\frac {1}{2^{s}}}+{\frac {1}{4^{s}}}+{\frac {1}{8^{s}}}+\cdots } {\displaystyle {\frac {1}{1-{\frac {1}{2^{s}}}}}=1+{\frac {1}{2^{s}}}+{\frac {1}{2^{2s}}}+{\frac {1}{2^{3s}}}+\cdots =1+{\frac {1}{2^{s}}}+{\frac {1}{4^{s}}}+{\frac {1}{8^{s}}}+\cdots },

wobei das Potenzgesetz ( 1 p s ) n = 1 p n s = 1 ( p n ) s {\displaystyle \left({\tfrac {1}{p^{s}}}\right)^{n}={\tfrac {1}{p^{ns}}}={\tfrac {1}{(p^{n})^{s}}}} {\displaystyle \left({\tfrac {1}{p^{s}}}\right)^{n}={\tfrac {1}{p^{ns}}}={\tfrac {1}{(p^{n})^{s}}}} zu beachten ist. Zur Rechten stehen genau die Zahlen, die ausschließlich Zweien in ihrer Primfaktorzerlegung haben, also die Zweierpotenzen. Verfährt man weiter mit den ersten zwei Primzahlen, ergibt sich

1 1 − 1 2 s ⋅ 1 1 − 1 3 s = ( 1 + 1 2 s + 1 2 2 s + 1 2 3 s + ⋯ ) ⋅ ( 1 + 1 3 s + 1 3 2 s + 1 3 3 s + ⋯ ) . {\displaystyle {\frac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{3^{s}}}}}=\left(1+{\frac {1}{2^{s}}}+{\frac {1}{2^{2s}}}+{\color {red}{\frac {1}{2^{3s}}}}+\cdots \right)\cdot \left(1+{\frac {1}{3^{s}}}+{\color {red}{\frac {1}{3^{2s}}}}+{\frac {1}{3^{3s}}}+\cdots \right).} {\displaystyle {\frac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{3^{s}}}}}=\left(1+{\frac {1}{2^{s}}}+{\frac {1}{2^{2s}}}+{\color {red}{\frac {1}{2^{3s}}}}+\cdots \right)\cdot \left(1+{\frac {1}{3^{s}}}+{\color {red}{\frac {1}{3^{2s}}}}+{\frac {1}{3^{3s}}}+\cdots \right).}

Multipliziert man beide Klammen aus, ergeben sich in der Summe alle Kombinationen von Termen der Form 1 2 n s 3 m s {\displaystyle {\tfrac {1}{2^{ns}3^{ms}}}} {\displaystyle {\tfrac {1}{2^{ns}3^{ms}}}} mit m , n ≥ 0 {\displaystyle m,n\geq 0} {\displaystyle m,n\geq 0}, es gilt also

1 1 − 1 2 s ⋅ 1 1 − 1 3 s = 1 + 1 2 s + 1 3 s + 1 2 s 3 s + 1 2 3 s + 1 2 2 s 3 s + ⋯ + 1 2 3 s 3 2 s + ⋯ = 1 + 1 2 s + 1 3 s + 1 6 s + 1 8 s + 1 12 s + ⋯ + 1 72 s + ⋯ {\displaystyle {\frac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{3^{s}}}}}=1+{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}+{\frac {1}{2^{s}3^{s}}}+{\frac {1}{2^{3s}}}+{\frac {1}{2^{2s}3^{s}}}+\cdots +{\color {red}{\frac {1}{2^{3s}3^{2s}}}}+\cdots =1+{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}+{\frac {1}{6^{s}}}+{\frac {1}{8^{s}}}+{\frac {1}{12^{s}}}+\cdots +{\color {red}{\frac {1}{72^{s}}}}+\cdots } {\displaystyle {\frac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{3^{s}}}}}=1+{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}+{\frac {1}{2^{s}3^{s}}}+{\frac {1}{2^{3s}}}+{\frac {1}{2^{2s}3^{s}}}+\cdots +{\color {red}{\frac {1}{2^{3s}3^{2s}}}}+\cdots =1+{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}+{\frac {1}{6^{s}}}+{\frac {1}{8^{s}}}+{\frac {1}{12^{s}}}+\cdots +{\color {red}{\frac {1}{72^{s}}}}+\cdots }

und auf der rechten Seite stehen genau alle Terme n − s {\displaystyle n^{-s}} {\displaystyle n^{-s}}, sodass n {\displaystyle n} {\displaystyle n} nur Zweien und Dreien in seiner Primfaktorzerlegung hat. Beim Ausmultiplizieren wird jeder Summand der einen Klammer mit einem Summanden der anderen Klammer verrechnet, und das in jeder Kombination, für 72 = 2 3 ⋅ 3 2 {\displaystyle 72=2^{3}\cdot 3^{2}} {\displaystyle 72=2^{3}\cdot 3^{2}} sind die entsprechenden Terme in Rot markiert. Auf ähnliche Weise findet man, dass 1 1 − 1 2 s ⋅ 1 1 − 1 3 s ⋅ 1 1 − 1 5 s {\displaystyle {\tfrac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\tfrac {1}{1-{\frac {1}{3^{s}}}}}\cdot {\tfrac {1}{1-{\frac {1}{5^{s}}}}}} {\displaystyle {\tfrac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\tfrac {1}{1-{\frac {1}{3^{s}}}}}\cdot {\tfrac {1}{1-{\frac {1}{5^{s}}}}}} zu der entsprechenden Dirichlet-Reihe korrespondiert, in der alle Zahlen mit Primfaktorzerlegung 2 a 3 b 5 c {\displaystyle 2^{a}3^{b}5^{c}} {\displaystyle 2^{a}3^{b}5^{c}} auftauchen, und so weiter. Entsprechend gilt allgemein für die ersten n {\displaystyle n} {\displaystyle n} Primzahlen

1 1 − 1 2 s ⋅ 1 1 − 1 3 s ⋅ 1 1 − 1 5 s ⋅ ⋯ ⋅ 1 1 − 1 p n s = ∑ m = 2 a 1 3 a 2 5 a 3 ⋯ p n a n a 1 , a 2 , a 3 , … , a n ≥ 0 1 m s . {\displaystyle {\frac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{3^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{5^{s}}}}}\cdot \cdots \cdot {\frac {1}{1-{\frac {1}{p_{n}^{s}}}}}=\sum _{m=2^{a_{1}}3^{a_{2}}5^{a_{3}}\cdots p_{n}^{a_{n}} \atop a_{1},a_{2},a_{3},\dots ,a_{n}\geq 0}{\frac {1}{m^{s}}}.} {\displaystyle {\frac {1}{1-{\frac {1}{2^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{3^{s}}}}}\cdot {\frac {1}{1-{\frac {1}{5^{s}}}}}\cdot \cdots \cdot {\frac {1}{1-{\frac {1}{p_{n}^{s}}}}}=\sum _{m=2^{a_{1}}3^{a_{2}}5^{a_{3}}\cdots p_{n}^{a_{n}} \atop a_{1},a_{2},a_{3},\dots ,a_{n}\geq 0}{\frac {1}{m^{s}}}.}

Nun kann man in dieser Formel n {\displaystyle n} {\displaystyle n} gegen Unendlich laufen lassen, und erhält

∏ p   Primzahl 1 1 − 1 p s = lim n → ∞ ∑ m = 2 a 1 3 a 2 5 a 3 ⋯ p n a n 1 m s = ∑ m = 1 ∞ 1 m s = 1 + 1 2 s + 1 3 s + 1 4 s + ⋯ = ζ ( s ) , {\displaystyle \prod _{p\ {\text{Primzahl}}}{\frac {1}{1-{\frac {1}{p^{s}}}}}=\lim _{n\to \infty }\sum _{m=2^{a_{1}}3^{a_{2}}5^{a_{3}}\cdots p_{n}^{a_{n}}}{\frac {1}{m^{s}}}=\sum _{m=1}^{\infty }{\frac {1}{m^{s}}}=1+{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}+{\frac {1}{4^{s}}}+\cdots =\zeta (s),} {\displaystyle \prod _{p\ {\text{Primzahl}}}{\frac {1}{1-{\frac {1}{p^{s}}}}}=\lim _{n\to \infty }\sum _{m=2^{a_{1}}3^{a_{2}}5^{a_{3}}\cdots p_{n}^{a_{n}}}{\frac {1}{m^{s}}}=\sum _{m=1}^{\infty }{\frac {1}{m^{s}}}=1+{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}+{\frac {1}{4^{s}}}+\cdots =\zeta (s),}

da jede Zahl m {\displaystyle m} {\displaystyle m} genau eine Zerlegung m = 2 a 1 3 a 2 5 a 3 ⋯ {\displaystyle m=2^{a_{1}}3^{a_{2}}5^{a_{3}}\cdots } {\displaystyle m=2^{a_{1}}3^{a_{2}}5^{a_{3}}\cdots } besitzt.

Schritt 2: Fortsetzung der Zeta-Funktion

[Bearbeiten | Quelltext bearbeiten]
Siehe auch: Analytische Fortsetzung der Riemannschen Zeta-Funktion

Als Nächstes muss gezeigt werden, dass die Funktion s ↦ ζ ( s ) − 1 s − 1 {\displaystyle s\mapsto \zeta (s)-{\tfrac {1}{s-1}}} {\displaystyle s\mapsto \zeta (s)-{\tfrac {1}{s-1}}} auf die Halbebene R e ( s ) > 0 {\displaystyle \mathrm {Re} (s)>0} {\displaystyle \mathrm {Re} (s)>0} fortgesetzt werden kann. Insbesondere hat ζ ( s ) {\displaystyle \zeta (s)} {\displaystyle \zeta (s)} einen einfachen Pol in s = 1 {\displaystyle s=1} {\displaystyle s=1}. Dies geht zum Beispiel über die zunächst nur für R e ( s ) > 1 {\displaystyle \mathrm {Re} (s)>1} {\displaystyle \mathrm {Re} (s)>1} gültige Identität

ζ ( s ) − 1 s − 1 = ∑ n = 1 ∞ 1 n s − ∫ 1 ∞ d x x s = ∑ n = 1 ∞ ∫ n n + 1 ( 1 n s − 1 x s ) d x . {\displaystyle \zeta (s)-{\frac {1}{s-1}}=\sum _{n=1}^{\infty }{\frac {1}{n^{s}}}-\int _{1}^{\infty }{\frac {\mathrm {d} x}{x^{s}}}=\sum _{n=1}^{\infty }\int _{n}^{n+1}\left({\frac {1}{n^{s}}}-{\frac {1}{x^{s}}}\right)\mathrm {d} x.} {\displaystyle \zeta (s)-{\frac {1}{s-1}}=\sum _{n=1}^{\infty }{\frac {1}{n^{s}}}-\int _{1}^{\infty }{\frac {\mathrm {d} x}{x^{s}}}=\sum _{n=1}^{\infty }\int _{n}^{n+1}\left({\frac {1}{n^{s}}}-{\frac {1}{x^{s}}}\right)\mathrm {d} x.}

Über den Mittelwertsatz kann man zeigen, dass die rechte Reihe sogar für R e ( s ) > 0 {\displaystyle \mathrm {Re} (s)>0} {\displaystyle \mathrm {Re} (s)>0} gleichmäßig und absolut konvergiert auf kompakten Teilmengen, denn

∑ n = 1 ∞ | ∫ n n + 1 ( 1 n s − 1 x s ) d x | = ∑ n = 1 ∞ | s ∫ n n + 1 ( ∫ n x d u u s + 1 ) d x | ≤ ∑ n = 1 ∞ max n ≤ u ≤ n + 1 | s u s + 1 | = ∑ n = 1 ∞ | s | n R e ( s ) + 1 < ∞ . {\displaystyle \sum _{n=1}^{\infty }\left|\int _{n}^{n+1}\left({\frac {1}{n^{s}}}-{\frac {1}{x^{s}}}\right)\mathrm {d} x\right|=\sum _{n=1}^{\infty }\left|s\int _{n}^{n+1}\left(\int _{n}^{x}{\frac {\mathrm {d} u}{u^{s+1}}}\right)\mathrm {d} x\right|\leq \sum _{n=1}^{\infty }\max _{n\leq u\leq n+1}\left|{\frac {s}{u^{s+1}}}\right|=\sum _{n=1}^{\infty }{\frac {|s|}{n^{\mathrm {Re} (s)+1}}}<\infty .} {\displaystyle \sum _{n=1}^{\infty }\left|\int _{n}^{n+1}\left({\frac {1}{n^{s}}}-{\frac {1}{x^{s}}}\right)\mathrm {d} x\right|=\sum _{n=1}^{\infty }\left|s\int _{n}^{n+1}\left(\int _{n}^{x}{\frac {\mathrm {d} u}{u^{s+1}}}\right)\mathrm {d} x\right|\leq \sum _{n=1}^{\infty }\max _{n\leq u\leq n+1}\left|{\frac {s}{u^{s+1}}}\right|=\sum _{n=1}^{\infty }{\frac {|s|}{n^{\mathrm {Re} (s)+1}}}<\infty .}

Damit ist die betrachtete Funktion wegen des Konvergenzsatzes von Weierstraß auf der Halbebene R e ( s ) > 0 {\displaystyle \mathrm {Re} (s)>0} {\displaystyle \mathrm {Re} (s)>0} holomorph.

Schritt 3: Beschränkung der Chebyshev-Funktion

[Bearbeiten | Quelltext bearbeiten]
→ Hauptartikel: Chebyshev-Funktion

Die erste Chebyshev-Funktion ist definiert durch

ϑ ( x ) := ∑ p ≤ x p Primzahl log ⁡ ( p ) . {\displaystyle \vartheta (x):=\sum _{p\leq x \atop p\,{\text{Primzahl}}}\log(p).} {\displaystyle \vartheta (x):=\sum _{p\leq x \atop p\,{\text{Primzahl}}}\log(p).}

Es wird gezeigt, dass der Quotient ϑ ( x ) x {\displaystyle {\tfrac {\vartheta (x)}{x}}} {\displaystyle {\tfrac {\vartheta (x)}{x}}} für x → ∞ {\displaystyle x\to \infty } {\displaystyle x\to \infty } beschränkt ist. Um dies zu sehen, benutzt man zuerst den binomischen Lehrsatz:

2 2 n = ( 1 + 1 ) 2 n = ( 2 n 0 ) + ⋯ + ( 2 n 2 n ) ≥ ( 2 n n ) = ( 2 n ) ! n ! 2 ≥ ∏ n < p ≤ 2 n p Primzahl p = e ϑ ( 2 n ) − ϑ ( n ) . {\displaystyle 2^{2n}=(1+1)^{2n}={\binom {2n}{0}}+\cdots +{\binom {2n}{2n}}\geq {\binom {2n}{n}}={\frac {(2n)!}{n!^{2}}}\geq \prod _{n<p\leq 2n \atop p\,{\text{Primzahl}}}p=e^{\vartheta (2n)-\vartheta (n)}.} {\displaystyle 2^{2n}=(1+1)^{2n}={\binom {2n}{0}}+\cdots +{\binom {2n}{2n}}\geq {\binom {2n}{n}}={\frac {(2n)!}{n!^{2}}}\geq \prod _{n<p\leq 2n \atop p\,{\text{Primzahl}}}p=e^{\vartheta (2n)-\vartheta (n)}.}

Ändert man in ϑ ( x ) {\displaystyle \vartheta (x)} {\displaystyle \vartheta (x)} das Argument um einen beschränkten Term O ( 1 ) {\displaystyle O(1)} {\displaystyle O(1)} ab, so gilt

ϑ ( x + O ( 1 ) ) − ϑ ( x ) = O ( log ⁡ ( x ) ) . {\displaystyle \vartheta (x+O(1))-\vartheta (x)=O(\log(x)).} {\displaystyle \vartheta (x+O(1))-\vartheta (x)=O(\log(x)).}

Damit gilt mit obiger Ungleichung:

ϑ ( x ) − ϑ ( x 2 ) ≤ C x {\displaystyle \vartheta (x)-\vartheta \left({\frac {x}{2}}\right)\leq Cx} {\displaystyle \vartheta (x)-\vartheta \left({\frac {x}{2}}\right)\leq Cx}

mit einem C > log ⁡ ( 2 ) {\displaystyle C>\log(2)} {\displaystyle C>\log(2)} für alle x ≥ x 0 = x 0 ( C ) {\displaystyle x\geq x_{0}=x_{0}(C)} {\displaystyle x\geq x_{0}=x_{0}(C)}. Damit folgt durch eine Teleskopsumme mit x 2 R ≥ x 0 > x 2 R + 1 {\displaystyle {\tfrac {x}{2^{R}}}\geq x_{0}>{\tfrac {x}{2^{R+1}}}} {\displaystyle {\tfrac {x}{2^{R}}}\geq x_{0}>{\tfrac {x}{2^{R+1}}}}:

ϑ ( x ) = ∑ r = 0 ∞ ( ϑ ( x 2 r ) − ϑ ( x 2 r + 1 ) ) ≤ ∑ r = 0 R ( ϑ ( x 2 r ) − ϑ ( x 2 r + 1 ) ) + O ( 1 ) ≤ C x ∑ r = 0 R 1 2 r + O ( 1 ) = O ( x ) . {\displaystyle \vartheta (x)=\sum _{r=0}^{\infty }\left(\vartheta \left({\frac {x}{2^{r}}}\right)-\vartheta \left({\frac {x}{2^{r+1}}}\right)\right)\leq \sum _{r=0}^{R}\left(\vartheta \left({\frac {x}{2^{r}}}\right)-\vartheta \left({\frac {x}{2^{r+1}}}\right)\right)+O(1)\leq Cx\sum _{r=0}^{R}{\frac {1}{2^{r}}}+O(1)=O(x).} {\displaystyle \vartheta (x)=\sum _{r=0}^{\infty }\left(\vartheta \left({\frac {x}{2^{r}}}\right)-\vartheta \left({\frac {x}{2^{r+1}}}\right)\right)\leq \sum _{r=0}^{R}\left(\vartheta \left({\frac {x}{2^{r}}}\right)-\vartheta \left({\frac {x}{2^{r+1}}}\right)\right)+O(1)\leq Cx\sum _{r=0}^{R}{\frac {1}{2^{r}}}+O(1)=O(x).}

Schritt 4: Fortsetzbarkeit der reziproken Zeta-Funktion

[Bearbeiten | Quelltext bearbeiten]

Es ist zuerst zu zeigen, dass ζ ( s ) ≠ 0 {\displaystyle \zeta (s)\not =0} {\displaystyle \zeta (s)\not =0} für alle R e ( s ) ≥ 1 {\displaystyle \mathrm {Re} (s)\geq 1} {\displaystyle \mathrm {Re} (s)\geq 1} gilt. Damit folgt schon mit Schritt 2, dass sich die Funktion s ↦ 1 ζ ( s ) {\displaystyle s\mapsto {\tfrac {1}{\zeta (s)}}} {\displaystyle s\mapsto {\tfrac {1}{\zeta (s)}}} holomorph nach R e ( s ) ≥ 1 {\displaystyle \mathrm {Re} (s)\geq 1} {\displaystyle \mathrm {Re} (s)\geq 1} fortsetzen lässt. Es ist mit dem Euler-Produkt bereits ζ ( s ) ≠ 0 {\displaystyle \zeta (s)\not =0} {\displaystyle \zeta (s)\not =0} im gesamten Bereich R e ( s ) > 1 {\displaystyle \mathrm {Re} (s)>1} {\displaystyle \mathrm {Re} (s)>1}. Der verbleibende Fall R e ( s ) = 1 {\displaystyle \mathrm {Re} (s)=1} {\displaystyle \mathrm {Re} (s)=1} lässt sich nun mit einem Satz von Franz Mertens behandeln, der zeigte, dass für a n ≥ 0 {\displaystyle a_{n}\geq 0} {\displaystyle a_{n}\geq 0} im Bereich der Konvergenz ( s = σ + i t {\displaystyle s=\sigma +it} {\displaystyle s=\sigma +it} mit σ , t ∈ R {\displaystyle \sigma ,t\in \mathbb {R} } {\displaystyle \sigma ,t\in \mathbb {R} })

3 ∑ n = 1 ∞ a n n σ + 4 R e ( ∑ n = 1 ∞ a n n σ + i t ) + R e ( ∑ n = 1 ∞ a n n σ + 2 i t ) = ∑ n = 1 ∞ a n ( 3 + 4 cos ⁡ ( t log ⁡ ( n ) ) + cos ⁡ ( 2 t log ⁡ ( n ) ) ) n σ ≥ 0 , {\displaystyle 3\sum _{n=1}^{\infty }{\frac {a_{n}}{n^{\sigma }}}+4\mathrm {Re} \left(\sum _{n=1}^{\infty }{\frac {a_{n}}{n^{\sigma +it}}}\right)+\mathrm {Re} \left(\sum _{n=1}^{\infty }{\frac {a_{n}}{n^{\sigma +2it}}}\right)=\sum _{n=1}^{\infty }{\frac {a_{n}(3+4\cos(t\log(n))+\cos(2t\log(n)))}{n^{\sigma }}}\geq 0,} {\displaystyle 3\sum _{n=1}^{\infty }{\frac {a_{n}}{n^{\sigma }}}+4\mathrm {Re} \left(\sum _{n=1}^{\infty }{\frac {a_{n}}{n^{\sigma +it}}}\right)+\mathrm {Re} \left(\sum _{n=1}^{\infty }{\frac {a_{n}}{n^{\sigma +2it}}}\right)=\sum _{n=1}^{\infty }{\frac {a_{n}(3+4\cos(t\log(n))+\cos(2t\log(n)))}{n^{\sigma }}}\geq 0,}

denn es gilt 3 + 4 cos ⁡ ( θ ) + cos ⁡ ( 2 θ ) = 2 ( 1 + cos ⁡ ( θ ) ) 2 ≥ 0 {\displaystyle 3+4\cos(\theta )+\cos(2\theta )=2(1+\cos(\theta ))^{2}\geq 0} {\displaystyle 3+4\cos(\theta )+\cos(2\theta )=2(1+\cos(\theta ))^{2}\geq 0}. Über das logarithmierte Euler-Produkt folgt für σ > 1 {\displaystyle \sigma >1} {\displaystyle \sigma >1}

3 log ⁡ ζ ( σ ) + 4 R e ( log ⁡ ζ ( σ + i t ) ) + R e ( log ⁡ ζ ( σ + 2 i t ) ) ≥ 0 , {\displaystyle 3\log \zeta (\sigma )+4\mathrm {Re} (\log \zeta (\sigma +it))+\mathrm {Re} (\log \zeta (\sigma +2it))\geq 0,} {\displaystyle 3\log \zeta (\sigma )+4\mathrm {Re} (\log \zeta (\sigma +it))+\mathrm {Re} (\log \zeta (\sigma +2it))\geq 0,}

denn

log ⁡ ζ ( s ) = − ∑ p Primzahl log ⁡ ( 1 − 1 p s ) = ∑ n = 2 ∞ Λ ( n ) n s log ⁡ ( n ) {\displaystyle \log \zeta (s)=-\sum _{p\,{\text{Primzahl}}}\log \left(1-{\frac {1}{p^{s}}}\right)=\sum _{n=2}^{\infty }{\frac {\Lambda (n)}{n^{s}\log(n)}}} {\displaystyle \log \zeta (s)=-\sum _{p\,{\text{Primzahl}}}\log \left(1-{\frac {1}{p^{s}}}\right)=\sum _{n=2}^{\infty }{\frac {\Lambda (n)}{n^{s}\log(n)}}}

mit der Mangoldt-Funktion Λ {\displaystyle \Lambda } {\displaystyle \Lambda }, und man hat Λ ( n ) log ⁡ ( n ) ≥ 0 {\displaystyle {\tfrac {\Lambda (n)}{\log(n)}}\geq 0} {\displaystyle {\tfrac {\Lambda (n)}{\log(n)}}\geq 0}. Ergo ist

| e 3 log ⁡ ζ ( σ ) + 4 R e ( log ⁡ ζ ( σ + i t ) ) + R e ( log ⁡ ζ ( σ + 2 i t ) ) | = ζ ( σ ) 3 | ζ ( σ + i t ) | 4 | ζ ( σ + 2 i t ) | ≥ 1 , σ > 1. {\displaystyle \left|e^{3\log \zeta (\sigma )+4\mathrm {Re} (\log \zeta (\sigma +it))+\mathrm {Re} (\log \zeta (\sigma +2it))}\right|=\zeta (\sigma )^{3}|\zeta (\sigma +it)|^{4}|\zeta (\sigma +2it)|\geq 1,\qquad \sigma >1.} {\displaystyle \left|e^{3\log \zeta (\sigma )+4\mathrm {Re} (\log \zeta (\sigma +it))+\mathrm {Re} (\log \zeta (\sigma +2it))}\right|=\zeta (\sigma )^{3}|\zeta (\sigma +it)|^{4}|\zeta (\sigma +2it)|\geq 1,\qquad \sigma >1.}

Wäre ζ ( 1 + i t ) = 0 {\displaystyle \zeta (1+it)=0} {\displaystyle \zeta (1+it)=0} für ein reelles t ≠ 0 {\displaystyle t\not =0} {\displaystyle t\not =0}, so wäre lim σ → 1 ζ ( σ ) 3 | ζ ( σ + i t ) | 4 | ζ ( σ + 2 i t ) | = 0 {\displaystyle \lim _{\sigma \to 1}\zeta (\sigma )^{3}|\zeta (\sigma +it)|^{4}|\zeta (\sigma +2it)|=0} {\displaystyle \lim _{\sigma \to 1}\zeta (\sigma )^{3}|\zeta (\sigma +it)|^{4}|\zeta (\sigma +2it)|=0} (denn der – siehe Schritt 2 – einfache Pol in σ = 1 {\displaystyle \sigma =1} {\displaystyle \sigma =1} wird nur dreifach gewertet), was ein Widerspruch ist.

Mit diesem Nichtverschwindungsresultat wird nun argumentiert, dass sich die Funktion s ↦ Φ ( s ) − 1 s − 1 {\displaystyle s\mapsto \Phi (s)-{\tfrac {1}{s-1}}} {\displaystyle s\mapsto \Phi (s)-{\tfrac {1}{s-1}}} mit

Φ ( s ) := ∑ p Primzahl log ⁡ ( p ) p s = log ⁡ ( 2 ) 2 s + log ⁡ ( 3 ) 3 s + log ⁡ ( 5 ) 5 s + ⋯ {\displaystyle \Phi (s):=\sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}}}={\frac {\log(2)}{2^{s}}}+{\frac {\log(3)}{3^{s}}}+{\frac {\log(5)}{5^{s}}}+\cdots } {\displaystyle \Phi (s):=\sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}}}={\frac {\log(2)}{2^{s}}}+{\frac {\log(3)}{3^{s}}}+{\frac {\log(5)}{5^{s}}}+\cdots }

holomorph auf die Halbebene R e ( s ) ≥ 1 {\displaystyle \mathrm {Re} (s)\geq 1} {\displaystyle \mathrm {Re} (s)\geq 1} fortsetzen lässt. Dafür wird die aus der logarithmischen Ableitung des Euler-Produktes gewonnene Identität

− ζ ′ ( s ) ζ ( s ) = ∑ p Primzahl log ⁡ ( p ) p s − 1 = Φ ( s ) + ∑ p Primzahl log ⁡ ( p ) p s ( p s − 1 ) {\displaystyle -{\frac {\zeta '(s)}{\zeta (s)}}=\sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}-1}}=\Phi (s)+\sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}(p^{s}-1)}}} {\displaystyle -{\frac {\zeta '(s)}{\zeta (s)}}=\sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}-1}}=\Phi (s)+\sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}(p^{s}-1)}}}

genutzt. Die Funktion s ↦ − ζ ′ ( s ) ζ ( s ) − 1 s − 1 {\displaystyle s\mapsto -{\tfrac {\zeta '(s)}{\zeta (s)}}-{\tfrac {1}{s-1}}} {\displaystyle s\mapsto -{\tfrac {\zeta '(s)}{\zeta (s)}}-{\tfrac {1}{s-1}}} dehnt sich nach dem Nichtverschwindungssatz und Schritt 2, und die Reihe s ↦ ∑ p Primzahl log ⁡ ( p ) p s ( p s − 1 ) {\displaystyle \textstyle s\mapsto \sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}(p^{s}-1)}}} {\displaystyle \textstyle s\mapsto \sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}(p^{s}-1)}}} wegen gleichmäßiger Konvergenz auf Kompakta in R e ( s ) > 1 2 {\displaystyle \mathrm {Re} (s)>{\tfrac {1}{2}}} {\displaystyle \mathrm {Re} (s)>{\tfrac {1}{2}}}, holomorph auf R e ( s ) ≥ 1 {\displaystyle \mathrm {Re} (s)\geq 1} {\displaystyle \mathrm {Re} (s)\geq 1} aus.

Schritt 5: Konvergenz des Integrals mit der Chebyshev-Funktion

[Bearbeiten | Quelltext bearbeiten]

Es wird gezeigt, dass das Integral

∫ 1 ∞ ϑ ( x ) − x x 2 d x = ∫ 0 ∞ ( e − t ϑ ( e t ) − 1 ) d t {\displaystyle \int _{1}^{\infty }{\frac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x=\int _{0}^{\infty }(e^{-t}\vartheta (e^{t})-1)\mathrm {d} t} {\displaystyle \int _{1}^{\infty }{\frac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x=\int _{0}^{\infty }(e^{-t}\vartheta (e^{t})-1)\mathrm {d} t}

konvergiert. Dafür schreibt man die Funktion Φ {\displaystyle \Phi } {\displaystyle \Phi } als Laplace-Transformierte der Chebyshev-Funktion mit exponentiellem Argument:

Φ ( s ) = ∑ p Primzahl log ⁡ ( p ) p s = s ∫ 1 ∞ ϑ ( x ) x s + 1 d x = s ∫ 0 ∞ ϑ ( e t ) e − s t d t . {\displaystyle \Phi (s)=\sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}}}=s\int _{1}^{\infty }{\frac {\vartheta (x)}{x^{s+1}}}\mathrm {d} x=s\int _{0}^{\infty }\vartheta (e^{t})e^{-st}\mathrm {d} t.} {\displaystyle \Phi (s)=\sum _{p\,{\text{Primzahl}}}{\frac {\log(p)}{p^{s}}}=s\int _{1}^{\infty }{\frac {\vartheta (x)}{x^{s+1}}}\mathrm {d} x=s\int _{0}^{\infty }\vartheta (e^{t})e^{-st}\mathrm {d} t.}

Ergo ist

Φ ( s + 1 ) s + 1 − 1 s = ∫ 0 ∞ ( e − t ϑ ( e t ) − 1 ) e − s t d t . {\displaystyle {\frac {\Phi (s+1)}{s+1}}-{\frac {1}{s}}=\int _{0}^{\infty }(e^{-t}\vartheta (e^{t})-1)e^{-st}\mathrm {d} t.} {\displaystyle {\frac {\Phi (s+1)}{s+1}}-{\frac {1}{s}}=\int _{0}^{\infty }(e^{-t}\vartheta (e^{t})-1)e^{-st}\mathrm {d} t.}

Die Behauptung folgt nun mit Schritten 3, 4 und dem folgenden

Taubersatz von Newman: Es sei f ( t ) {\displaystyle f(t)} {\displaystyle f(t)} mit t ≥ 0 {\displaystyle t\geq 0} {\displaystyle t\geq 0} eine beschränkte, lokal integrierbare Funktion. Es sei angenommen, die auf R e ( s ) > 0 {\displaystyle \mathrm {Re} (s)>0} {\displaystyle \mathrm {Re} (s)>0} holomorphe Funktion

g ( s ) := ∫ 0 ∞ f ( t ) e − s t d t {\displaystyle g(s):=\int _{0}^{\infty }f(t)e^{-st}\mathrm {d} t} {\displaystyle g(s):=\int _{0}^{\infty }f(t)e^{-st}\mathrm {d} t}

dehne sich holomorph auf R e ( s ) ≥ 0 {\displaystyle \mathrm {Re} (s)\geq 0} {\displaystyle \mathrm {Re} (s)\geq 0} aus. Dann konvergiert ∫ 0 ∞ f ( t ) d t {\displaystyle \textstyle \int _{0}^{\infty }f(t)\mathrm {d} t} {\displaystyle \textstyle \int _{0}^{\infty }f(t)\mathrm {d} t} und hat den Wert g ( 0 ) {\displaystyle g(0)} {\displaystyle g(0)}.

Schritt 6: Asymptotisches Verhalten der Chebyshev-Funktion

[Bearbeiten | Quelltext bearbeiten]

Es wird ϑ ( x ) ∼ x {\displaystyle \vartheta (x)\sim x} {\displaystyle \vartheta (x)\sim x} für x → ∞ {\displaystyle x\to \infty } {\displaystyle x\to \infty } gezeigt. Das funktioniert zum Beispiel über einen Widerspruchsbeweis. Mit der Konvergenz des Integrals ∫ 0 ∞ ϑ ( x ) − x x 2 d x {\displaystyle \textstyle \int _{0}^{\infty }{\tfrac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x} {\displaystyle \textstyle \int _{0}^{\infty }{\tfrac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x} folgt

lim T → ∞ ∫ T λ T ϑ ( x ) − x x 2 d x = 0 {\displaystyle \lim _{T\to \infty }\int _{T}^{\lambda T}{\frac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x=0} {\displaystyle \lim _{T\to \infty }\int _{T}^{\lambda T}{\frac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x=0}

für alle λ > 0 {\displaystyle \lambda >0} {\displaystyle \lambda >0}. Ist nun λ > 1 {\displaystyle \lambda >1} {\displaystyle \lambda >1} und ϑ ( T ) ≥ λ T {\displaystyle \vartheta (T)\geq \lambda T} {\displaystyle \vartheta (T)\geq \lambda T} für beliebig groß werdende T {\displaystyle T} {\displaystyle T}, so folgt, da ϑ {\displaystyle \vartheta } {\displaystyle \vartheta } nicht fallend ist,

∫ T λ T ϑ ( x ) − x x 2 d x ≥ ∫ T λ T λ T − x x 2 d x = ∫ 1 λ λ − x x 2 d x > 0 {\displaystyle \int _{T}^{\lambda T}{\frac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x\geq \int _{T}^{\lambda T}{\frac {\lambda T-x}{x^{2}}}\mathrm {d} x=\int _{1}^{\lambda }{\frac {\lambda -x}{x^{2}}}\mathrm {d} x>0} {\displaystyle \int _{T}^{\lambda T}{\frac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x\geq \int _{T}^{\lambda T}{\frac {\lambda T-x}{x^{2}}}\mathrm {d} x=\int _{1}^{\lambda }{\frac {\lambda -x}{x^{2}}}\mathrm {d} x>0}

und der letzte Wert hängt nicht von T {\displaystyle T} {\displaystyle T} ab, ein Widerspruch. Ähnlich wird mit λ < 1 {\displaystyle \lambda <1} {\displaystyle \lambda <1} argumentiert: Ist ϑ ( T ) ≤ λ T {\displaystyle \vartheta (T)\leq \lambda T} {\displaystyle \vartheta (T)\leq \lambda T}, so gilt

∫ λ T T ϑ ( x ) − x x 2 d x ≤ ∫ λ T T λ T − x x 2 d x = ∫ λ 1 λ − x x 2 d x < 0. {\displaystyle \int _{\lambda T}^{T}{\frac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x\leq \int _{\lambda T}^{T}{\frac {\lambda T-x}{x^{2}}}\mathrm {d} x=\int _{\lambda }^{1}{\frac {\lambda -x}{x^{2}}}\mathrm {d} x<0.} {\displaystyle \int _{\lambda T}^{T}{\frac {\vartheta (x)-x}{x^{2}}}\mathrm {d} x\leq \int _{\lambda T}^{T}{\frac {\lambda T-x}{x^{2}}}\mathrm {d} x=\int _{\lambda }^{1}{\frac {\lambda -x}{x^{2}}}\mathrm {d} x<0.}

Auch dies führt zu einem Widerspruch.

Schritt 7: Beweis des Primzahlsatzes

[Bearbeiten | Quelltext bearbeiten]

Mit Schritt 6 kann nun der Primzahlsatz bewiesen werden. Es gilt einerseits folgende Abschätzung nach oben:

ϑ ( x ) = ∑ p ≤ x log ⁡ ( p ) ≤ ∑ p ≤ x log ⁡ ( x ) = π ( x ) log ⁡ ( x ) . {\displaystyle \vartheta (x)=\sum _{p\leq x}\log(p)\leq \sum _{p\leq x}\log(x)=\pi (x)\log(x).} {\displaystyle \vartheta (x)=\sum _{p\leq x}\log(p)\leq \sum _{p\leq x}\log(x)=\pi (x)\log(x).}

Auf der anderen Seite hat man für jedes ε > 0 {\displaystyle \varepsilon >0} {\displaystyle \varepsilon >0} folgende Abschätzung nach unten:

ϑ ( x ) ≥ ∑ x 1 − ε ≤ p ≤ x log ⁡ ( p ) ≥ ∑ x 1 − ε ≤ p ≤ x ( 1 − ε ) log ⁡ ( x ) = ( 1 − ε ) log ⁡ ( x ) ( π ( x ) + O ( x 1 − ε ) ) . {\displaystyle \vartheta (x)\geq \sum _{x^{1-\varepsilon }\leq p\leq x}\log(p)\geq \sum _{x^{1-\varepsilon }\leq p\leq x}(1-\varepsilon )\log(x)=(1-\varepsilon )\log(x)\left(\pi (x)+O(x^{1-\varepsilon })\right).} {\displaystyle \vartheta (x)\geq \sum _{x^{1-\varepsilon }\leq p\leq x}\log(p)\geq \sum _{x^{1-\varepsilon }\leq p\leq x}(1-\varepsilon )\log(x)=(1-\varepsilon )\log(x)\left(\pi (x)+O(x^{1-\varepsilon })\right).}

Daraus folgt ϑ ( x ) ∼ log ⁡ ( x ) π ( x ) ∼ x {\displaystyle \vartheta (x)\sim \log(x)\pi (x)\sim x} {\displaystyle \vartheta (x)\sim \log(x)\pi (x)\sim x}, also π ( x ) ∼ x log ⁡ ( x ) {\displaystyle \pi (x)\sim {\tfrac {x}{\log(x)}}} {\displaystyle \pi (x)\sim {\tfrac {x}{\log(x)}}}.

Appendix: Beweis des Taubersatzes

[Bearbeiten | Quelltext bearbeiten]

Für T > 0 {\displaystyle T>0} {\displaystyle T>0} wird

g T ( s ) := ∫ 0 T f ( t ) e − s t d t {\displaystyle g_{T}(s):=\int _{0}^{T}f(t)e^{-st}\mathrm {d} t} {\displaystyle g_{T}(s):=\int _{0}^{T}f(t)e^{-st}\mathrm {d} t}

definiert. Dies ist holomorph für alle s {\displaystyle s} {\displaystyle s}. Es genügt, lim T → ∞ g T ( 0 ) = g ( 0 ) {\displaystyle \lim _{T\to \infty }g_{T}(0)=g(0)} {\displaystyle \lim _{T\to \infty }g_{T}(0)=g(0)} zu zeigen. Für große R > 0 {\displaystyle R>0} {\displaystyle R>0} bezeichne C {\displaystyle C} {\displaystyle C} den Rand des abgeschnittenen Kreises { s ∈ C : | s | ≤ R , R e ( s ) ≥ − δ } {\displaystyle \{s\in \mathbb {C} :|s|\leq R,\mathrm {Re} (s)\geq -\delta \}} {\displaystyle \{s\in \mathbb {C} :|s|\leq R,\mathrm {Re} (s)\geq -\delta \}}, wobei δ > 0 {\displaystyle \delta >0} {\displaystyle \delta >0} abhängig von R {\displaystyle R} {\displaystyle R} klein genug gewählt ist, sodass g {\displaystyle g} {\displaystyle g} holomorph in ganz C {\displaystyle C} {\displaystyle C} ist (siehe auch Lebesguezahl). Es ist dabei zu beachten, dass Holomorphie in einem (Rand-)Punkt stets in eine Umgebung dieses Punktes ausstrahlt, etwa wegen der vorhandenen Taylor-Entwicklung. Mit der Cauchyschen Integralformel folgt

g ( 0 ) − g T ( 0 ) = 1 2 π i ∫ C ( g ( s ) − g T ( s ) ) e s T ( 1 + s 2 R 2 ) d s s , {\displaystyle g(0)-g_{T}(0)={\frac {1}{2\pi i}}\int _{C}(g(s)-g_{T}(s))e^{sT}\left(1+{\frac {s^{2}}{R^{2}}}\right){\frac {\mathrm {d} s}{s}},} {\displaystyle g(0)-g_{T}(0)={\frac {1}{2\pi i}}\int _{C}(g(s)-g_{T}(s))e^{sT}\left(1+{\frac {s^{2}}{R^{2}}}\right){\frac {\mathrm {d} s}{s}},}

wobei der Term s 2 R 2 {\displaystyle {\tfrac {s^{2}}{R^{2}}}} {\displaystyle {\tfrac {s^{2}}{R^{2}}}} die Funktion einer komplizierten Null innehat und e 0 = 1 {\displaystyle e^{0}=1} {\displaystyle e^{0}=1} zu beachten ist. Es wird nun argumentiert, dass dieses Integral für T → ∞ {\displaystyle T\to \infty } {\displaystyle T\to \infty } gegen 0 strebt. Auf dem Halbkreis C + := C ∩ { R e ( s ) > 0 } {\displaystyle C_{+}:=C\cap \{\mathrm {Re} (s)>0\}} {\displaystyle C_{+}:=C\cap \{\mathrm {Re} (s)>0\}} ist der Integrand durch 2 B R 2 {\displaystyle {\tfrac {2B}{R^{2}}}} {\displaystyle {\tfrac {2B}{R^{2}}}} beschränkt, wobei B := sup t ≥ 0 | f ( t ) | {\displaystyle B:=\sup _{t\geq 0}|f(t)|} {\displaystyle B:=\sup _{t\geq 0}|f(t)|}, denn einerseits gilt

| g ( s ) − g T ( s ) | = | ∫ T ∞ f ( t ) e − s t d t | ≤ B ∫ T ∞ | e − s t | d t = B e − R e ( s ) T R e ( s ) , {\displaystyle |g(s)-g_{T}(s)|=\left|\int _{T}^{\infty }f(t)e^{-st}\mathrm {d} t\right|\leq B\int _{T}^{\infty }\left|e^{-st}\right|\mathrm {d} t={\frac {Be^{-\mathrm {Re} (s)T}}{\mathrm {Re} (s)}},} {\displaystyle |g(s)-g_{T}(s)|=\left|\int _{T}^{\infty }f(t)e^{-st}\mathrm {d} t\right|\leq B\int _{T}^{\infty }\left|e^{-st}\right|\mathrm {d} t={\frac {Be^{-\mathrm {Re} (s)T}}{\mathrm {Re} (s)}},}

und andererseits

| e s T ( 1 + s 2 R 2 ) 1 s | = e R e ( s ) T ⋅ 2 R e ( s ) R 2 . {\displaystyle \left|e^{sT}\left(1+{\frac {s^{2}}{R^{2}}}\right){\frac {1}{s}}\right|=e^{\mathrm {Re} (s)T}\cdot {\frac {2\mathrm {Re} (s)}{R^{2}}}.} {\displaystyle \left|e^{sT}\left(1+{\frac {s^{2}}{R^{2}}}\right){\frac {1}{s}}\right|=e^{\mathrm {Re} (s)T}\cdot {\frac {2\mathrm {Re} (s)}{R^{2}}}.}

Nach der Standardabschätzung für Wegintegrale ist der Beitrag des Integrals über C + {\displaystyle C_{+}} {\displaystyle C_{+}} an g ( 0 ) − g T ( 0 ) {\displaystyle g(0)-g_{T}(0)} {\displaystyle g(0)-g_{T}(0)} durch B R {\displaystyle {\tfrac {B}{R}}} {\displaystyle {\tfrac {B}{R}}} beschränkt. Für den Kurventeil C − := C ∩ { R e ( s ) < 0 } {\displaystyle C_{-}:=C\cap \{\mathrm {Re} (s)<0\}} {\displaystyle C_{-}:=C\cap \{\mathrm {Re} (s)<0\}} werden g {\displaystyle g} {\displaystyle g} und g T {\displaystyle g_{T}} {\displaystyle g_{T}} separat betrachtet. Da g T {\displaystyle g_{T}} {\displaystyle g_{T}} eine ganze Funktion ist, kann der Weg C − {\displaystyle C_{-}} {\displaystyle C_{-}} hier zum Halbkreis { s ∈ C : | s | = R , R e ( s ) < 0 } {\displaystyle \{s\in \mathbb {C} :|s|=R,\mathrm {Re} (s)<0\}} {\displaystyle \{s\in \mathbb {C} :|s|=R,\mathrm {Re} (s)<0\}} deformiert werden, ohne dessen Wert zu verändern, und auf dieser neuen Kurve gilt die Beschränkung durch B R {\displaystyle {\tfrac {B}{R}}} {\displaystyle {\tfrac {B}{R}}}, denn nach gleicher Argumentation wie oben gilt

| g T ( s ) | = | ∫ 0 T f ( t ) e − s t d t | ≤ B ∫ − ∞ T | e − s t | d t = B e − R e ( s ) T | R e ( s ) | . {\displaystyle |g_{T}(s)|=\left|\int _{0}^{T}f(t)e^{-st}\mathrm {d} t\right|\leq B\int _{-\infty }^{T}|e^{-st}|\mathrm {d} t={\frac {Be^{-\mathrm {Re} (s)T}}{|\mathrm {Re} (s)|}}.} {\displaystyle |g_{T}(s)|=\left|\int _{0}^{T}f(t)e^{-st}\mathrm {d} t\right|\leq B\int _{-\infty }^{T}|e^{-st}|\mathrm {d} t={\frac {Be^{-\mathrm {Re} (s)T}}{|\mathrm {Re} (s)|}}.}

Zu guter Letzt geht das verbliebene Integral über C − {\displaystyle C_{-}} {\displaystyle C_{-}} für T → ∞ {\displaystyle T\to \infty } {\displaystyle T\to \infty } gegen 0, denn der Integrand ist das Produkt von g ( s ) ( 1 + s 2 R 2 ) 1 s {\displaystyle g(s)(1+{\tfrac {s^{2}}{R^{2}}}){\tfrac {1}{s}}} {\displaystyle g(s)(1+{\tfrac {s^{2}}{R^{2}}}){\tfrac {1}{s}}}, was unabhängig von T {\displaystyle T} {\displaystyle T} ist, mit e T s {\displaystyle e^{Ts}} {\displaystyle e^{Ts}}, was auf kompakten Teilmengen der Halbebene { R e ( s ) ≤ 0 } {\displaystyle \{\mathrm {Re} (s)\leq 0\}} {\displaystyle \{\mathrm {Re} (s)\leq 0\}} schnell und gleichmäßig gegen 0 strebt. Daraus folgt

lim sup T → ∞ | g ( 0 ) − g T ( 0 ) | ≤ 2 B R {\displaystyle \limsup _{T\to \infty }|g(0)-g_{T}(0)|\leq {\frac {2B}{R}}} {\displaystyle \limsup _{T\to \infty }|g(0)-g_{T}(0)|\leq {\frac {2B}{R}}}

und mit der beliebigen Wahl R → ∞ {\displaystyle R\to \infty } {\displaystyle R\to \infty } die Behauptung.

Literatur

[Bearbeiten | Quelltext bearbeiten]
  • Donald Newman: A simple proof of the prime number theorem. American Mathematical Monthly, Band 87, 1980, S. 693–696.
  • Don Zagier: Newman’s short proof of the prime number theorem. In: The American Mathematical Monthly, Band 104, Nr. 8 (Oktober 1997), S. 705–708 (PDF).

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ Carl Friedrich Gauß. Werke. Zweiter Band. Herausgegeben von der königlichen Gesellschaft der Wissenschaften zu Göttingen, 1863, (Brief), S. 444–447.
  2. ↑ a b Jörg Brüdern: Einführung in die analytische Zahlentheorie. Springer Verlag, S. 41.
  3. ↑ Władysław Narkiewicz: The Development in Prime Number Theory. Springer Monographs in Mathematics, S. 183.
  4. ↑ E. Freitag, R. Busam: Funktionentheorie 1. Springer; 4. Aufl. 2006, ISBN 978-3-540-31764-7, S. 432.
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Donald_Newmans_Beweis_des_Primzahlsatzes&oldid=251474627“
Kategorien:
  • Beweis (Mathematik)
  • Analytische Zahlentheorie

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id