Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Shannon-Index
Shannon-Index 👆 Click Here!
aus Wikipedia, der freien Enzyklopädie

Der Shannon-Index (häufig auch Shannon-Wiener-Index[1][2]) ist eine mathematische Größe, die in der Biometrie für die Beschreibung der Diversität (vgl. Biodiversität) eingesetzt wird. Er beschreibt die Vielfalt in betrachteten Daten und berücksichtigt dabei sowohl die Anzahl unterschiedlicher Datenkategorien (z. B. die Artenzahl) als auch die Abundanz (Anzahl der Individuen je Art).

Definition

[Bearbeiten | Quelltext bearbeiten]

Der Shannon-Index H ′ {\displaystyle H'} {\displaystyle H'} einer Population, die aus N {\displaystyle N} {\displaystyle N} Individuen unterschiedlicher Spezies besteht, von denen jeweils n i {\displaystyle n_{i}} {\displaystyle n_{i}} zu einer Spezies gehören, ist

H ′ = − ∑ i p i ⋅ ln ⁡ p i mit   p i = n i N {\displaystyle H'=-\sum _{i}{p_{i}\cdot \ln p_{i}}\quad {\text{mit}}\ p_{i}={\frac {n_{i}}{N}}} {\displaystyle H'=-\sum _{i}{p_{i}\cdot \ln p_{i}}\quad {\text{mit}}\ p_{i}={\frac {n_{i}}{N}}}.

p i {\displaystyle p_{i}} {\displaystyle p_{i}} ist dabei der Anteil der jeweiligen Spezies i {\displaystyle i} {\displaystyle i} an der Gesamtzahl N {\displaystyle N} {\displaystyle N}, also die relative Häufigkeit der einzelnen Spezies. (Statt des natürlichen Logarithmus ln {\displaystyle \ln } {\displaystyle \ln } wird auch der Logarithmus zur Basis 2, log 2 {\displaystyle \log _{2}} {\displaystyle \log _{2}}, verwendet.)

Ist die Anzahl S {\displaystyle S} {\displaystyle S} der Spezies vorgegeben, so erreicht der Shannon-Index sein Maximum, wenn alle Spezies mit gleicher Häufigkeit besetzt sind. Der maximale Wert des Shannon-Index wird mit folgender Formel berechnet:

H m a x = ln ⁡ S {\displaystyle H_{\mathrm {max} }=\ln S} {\displaystyle H_{\mathrm {max} }=\ln S}

Der Quotient aus dem Shannon-Index und dem maximalen Shannon-Index-Wert wird als Evenness bezeichnet und ist ein Maß für die Verteilung der Individuen in einer Population.[3]

Zusammenhang mit der Informationstheorie

[Bearbeiten | Quelltext bearbeiten]

Der Shannon-Index entspricht der Entropie H {\displaystyle H} {\displaystyle H} einer diskreten gedächtnislosen Quelle (diskreten Zufallsvariable) X {\displaystyle X} {\displaystyle X} über einem endlichen Alphabet Z = { z 1 , z 2 , … , z S } {\displaystyle Z=\{z_{1},z_{2},\dots ,z_{S}\}} {\displaystyle Z=\{z_{1},z_{2},\dots ,z_{S}\}}, der wie folgt definiert ist: Man ordnet jeder Wahrscheinlichkeit p i {\displaystyle p_{i}} {\displaystyle p_{i}} eines Ereignisses seinen Informationsgehalt I ( p i ) = − log 2 ⁡ p i {\displaystyle I(p_{i})=-\log _{2}p_{i}\;} {\displaystyle I(p_{i})=-\log _{2}p_{i}\;} zu. Dann ist die Entropie eines Zeichens definiert als der Erwartungswert des Informationsgehalts

H 1 = − ∑ i = 1 S p i ⋅ log 2 ⁡ p i {\displaystyle H_{1}=-\sum _{i=1}^{S}p_{i}\cdot \log _{2}p_{i}} {\displaystyle H_{1}=-\sum _{i=1}^{S}p_{i}\cdot \log _{2}p_{i}},

wobei p i = P ( X = z i ) {\displaystyle p_{i}=P(X=z_{i})} {\displaystyle p_{i}=P(X=z_{i})} die Wahrscheinlichkeit ist, mit der das i-te Zeichen z i {\displaystyle z_{i}} {\displaystyle z_{i}} des Alphabets auftritt.

Die Shannon-Weaver- und Shannon-Wiener-Debatte

[Bearbeiten | Quelltext bearbeiten]

Sowohl die Bezeichnung „Shannon-Weaver-Index“ als auch die Bezeichnung „Shannon-Wiener-Index“ ist irreleitend. Warren Weaver war Koautor und Popularisator der gebundenen „A Mathematical Theory of Communication“, in der Claude Elwood Shannon seine Theorie, die bereits vorher schon in zwei Aufsätzen niedergelegt war, veröffentlichte. Norbert Wiener stellte die probabilistischen Rechenmethoden zur Verfügung, auf denen Shannons Ausarbeitung beruhte. Seine weiteren Forschungen im Rahmen der Kybernetik bauten auf der Informationstheorie Shannons auf.[4] Die Entwicklung des Indexes ist jedoch allein Shannon zuzuschreiben.

Siehe auch

[Bearbeiten | Quelltext bearbeiten]
  • Simpson-Index

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ Ian F. Spellerberg, Peter J. Fedor (2003): A tribute to Claude Shannon (1916–2001) and a plea for more rigorous use of species richness, species diversity and the 'Shannon-Wiener' Index. In: Global Ecology and Biogeography 12 (3), S. 177–179, doi:10.1046/j.1466-822X.2003.00015.x
  2. ↑ Charles J. Krebs (1989): Ecological Methodology. HarperCollins, New York.
  3. ↑ Nentwig, Wolfgang.: Ökologie. 1. Auflage. Spektrum, Akad. Verl, Heidelberg 2004, ISBN 3-8274-0172-0, S. 284. 
  4. ↑ E. Schramm (2005): Genese und „Verschwinden“ der Kybernetik. Ein Literaturbericht. ISOE-Diskussionspapiere Nr. 25.
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Shannon-Index&oldid=246088131“
Kategorien:
  • Biostatistik
  • Theoretische Ökologie
  • Ökologische Größe

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id