Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Kernel-Methode – Wikipedia
Kernel-Methode – Wikipedia
aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Kernel-Trick)

Im maschinellen Lernen bezeichnen Kernel-Methoden eine Klasse von Algorithmen zur Mustererkennung. Diese Methoden nutzen sogenannte Kernelfunktionen, welche eine Menge von bekannten Datenpunkten in einen höherdimensionalen Raum transformieren. In diesem neuen Raum sucht die Kernel-Methode nach einer Hyperebene, die die Datenpunkte korrekt klassifiziert. Die Abbildung zum Kernel-Trick veranschaulicht ein einfaches Beispiel. Eine besondere Eigenschaft der Kernelfunktionen ist, dass sie eine implizite Berechnung im höherdimensionalen Raum ermöglichen. Dadurch können Kernel-Methoden bei der Suche nach einer geeigneten Hyperebene hochdimensionale Räume verwenden, ohne die Rechenzeit signifikant zu erhöhen.[1] Bekannte Kernel-Methoden sind unter anderem Support Vector Machines, Gauß-Prozesse und die Kernel-PCA.

Formale Definition Kernel

[Bearbeiten | Quelltext bearbeiten]
Dieser Artikel oder Abschnitt bedarf einer grundsätzlichen Überarbeitung. Näheres sollte auf der Diskussionsseite angegeben sein. Bitte hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung.

Sei X {\displaystyle X} {\displaystyle X} ein Eingaberaum. Eine Abbildung K : X × X → R {\displaystyle K\colon X\times X\to \mathbb {R} } {\displaystyle K\colon X\times X\to \mathbb {R} } heißt Kernel, wenn es einen Skalarproduktraum ( F , ⟨ ⋅ , ⋅ ⟩ ) {\displaystyle (F,\langle \cdot ,\cdot \rangle )} {\displaystyle (F,\langle \cdot ,\cdot \rangle )} und eine Abbildung ϕ : X → F {\displaystyle \phi \colon X\to F} {\displaystyle \phi \colon X\to F} in diesen Raum gibt mit: K ( x , y ) = ⟨ ϕ ( x ) , ϕ ( y ) ⟩ ∀ x , y ∈ X {\displaystyle K(x,y)=\langle \phi (x),\phi (y)\rangle \;\;\;\forall x,y\in X} {\displaystyle K(x,y)=\langle \phi (x),\phi (y)\rangle \;\;\;\forall x,y\in X}.

F {\displaystyle F} {\displaystyle F} heißt Featurespace oder Merkmalsraum, ϕ {\displaystyle \phi } {\displaystyle \phi } Featuremapping oder Merkmalsabbildung. Ein Kernel ist also eine Möglichkeit, das Skalarprodukt zweier Punkte x , y {\displaystyle x,y} {\displaystyle x,y} im Merkmalsraum zu berechnen, ohne die potentiell sehr hochdimensionale Repräsentation ϕ ( x ) , ϕ ( y ) {\displaystyle \phi (x),\phi (y)} {\displaystyle \phi (x),\phi (y)} explizit ausrechnen zu müssen. Dieses Skalarprodukt im Merkmalsraum kann dann für Klassifizierungsalgorithmen wie Support Vector Machines verwendet werden.

In der Praxis muss der Featurespace nicht explizit bekannt sein, da Kernel durch den Satz von Mercer eine einfache Charakterisierung aufweisen.

Verschiedene Klassen von Kernel-Funktionen

[Bearbeiten | Quelltext bearbeiten]

Es gibt verschiedene Arten von Kerneln, die sich zum Teil über Parameter an die gegebene Problemstellung anpassen lassen:

  • lineare Kernel k ( x , y ) = ⟨ x , y ⟩ {\displaystyle k(x,y)=\langle x,y\rangle } {\displaystyle k(x,y)=\langle x,y\rangle }
  • polynomiale Kernel k ( x , y ) = ⟨ x , y ⟩ d {\displaystyle k(x,y)=\langle x,y\rangle ^{d}} {\displaystyle k(x,y)=\langle x,y\rangle ^{d}}, mit einem freien Parameter d {\displaystyle d} {\displaystyle d}
  • Radiale-Basisfunktion-Kernel (RBF) k ( x , y ) = exp ⁡ ( − | | x − y | | 2 2 σ 2 ) {\displaystyle k(x,y)=\exp \left(-{\tfrac {||x-y||^{2}}{2\sigma ^{2}}}\right)} {\displaystyle k(x,y)=\exp \left(-{\tfrac {||x-y||^{2}}{2\sigma ^{2}}}\right)}, wobei die Bandbreite σ {\displaystyle \sigma } {\displaystyle \sigma } ein freier Parameter ist
  • Fisher Kernel
  • Graph Kernel
  • Kernel Smoother
  • String Kernel
  • Neural Tangent Kernel
  • Neural Network Gaussian Process (NNGP) Kernel

Kernel-Trick

[Bearbeiten | Quelltext bearbeiten]

Bei Kernel-Methoden gibt es den Kernel-Trick, mit dem beispielsweise ein linearer Klassifikator erfolgreich auf nicht-linear trennbare Daten angewendet werden kann. Dies wird erreicht, indem die Daten in einen höherdimensionalen Raum transformiert werden, in dem eine bessere lineare Separierbarkeit erwartet wird (siehe Abbildung). Dieser Vorgang kann als eine Form des Feature-Engineering verstanden werden.

Gegeben sei die Abbildung ϕ ( ( x 1 , x 2 ) ) = ( x 1 , x 2 , x 1 2 + x 2 2 ) {\displaystyle \phi ((x_{1},x_{2}))=(x_{1},x_{2},x_{1}^{2}+x_{2}^{2})} {\displaystyle \phi ((x_{1},x_{2}))=(x_{1},x_{2},x_{1}^{2}+x_{2}^{2})} und ein Kernel K ( x , y ) = ϕ ( x ) ⋅ ϕ ( y ) = x ⋅ y + ∥ x ∥ 2 ∥ y ∥ 2 . {\displaystyle K(\mathbf {x} ,\mathbf {y} )=\phi (\mathbf {x} )\cdot \phi (\mathbf {y} )=\mathbf {x} \cdot \mathbf {y} +\parallel \mathbf {x} \parallel ^{2}\parallel \mathbf {y} \parallel ^{2}.} {\displaystyle K(\mathbf {x} ,\mathbf {y} )=\phi (\mathbf {x} )\cdot \phi (\mathbf {y} )=\mathbf {x} \cdot \mathbf {y} +\parallel \mathbf {x} \parallel ^{2}\parallel \mathbf {y} \parallel ^{2}.} Dann kann eine SVM mit diesem Kernel K(x , y) die roten und lila Datenpunkte durch eine Hyperebene trennen. Die 2d Trainingspunkte ( x 1 , x 2 ) {\displaystyle (x_{1},x_{2})} {\displaystyle (x_{1},x_{2})} werden durch ϕ {\displaystyle \phi } {\displaystyle \phi } in den 3d-Raum abgebildet ( x 1 , x 2 , ϕ ( ( x 1 , x 2 ) ) ) {\displaystyle (x_{1},x_{2},\phi ((x_{1},x_{2})))} {\displaystyle (x_{1},x_{2},\phi ((x_{1},x_{2})))}, wo eine trennende Hyperebene leicht gefunden werden kann.

Literatur

[Bearbeiten | Quelltext bearbeiten]
  • Christopher M. Bishop: Pattern Recognition and Machine Learning. Information Science and Statistics, Springer-Verlag, 2008, ISBN 978-0387310732
  • Nello Cristianini, John Shawe-Taylor: Kernel Methods for Pattern Classification. Cambridge, 2004.
  • Bernhard Schölkopf, Alex Smola: Learning with Kernels. MIT Press, Cambridge, MA, 2002.
  • Thomas Hofmann, Bernhard Schölkopf, Alexander J Smola: Kernel methods in machine learning. In: Annals Statistics 36 (3) 2008: 1171–1220. PDF.

Weblinks

[Bearbeiten | Quelltext bearbeiten]
  • http://www.kernel-machines.org/
  • http://www.kernel-methods.net

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ Paul Wilmott: Grundkurs Machine Learning. 1. Auflage. Rheinwerk Verlag GmbH, Bonn 2020, ISBN 978-3-8362-7598-9, S. 133. 
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Kernel-Methode&oldid=251952075“
Kategorien:
  • Maschinelles Lernen
  • Multivariate Statistik
Versteckte Kategorie:
  • Wikipedia:Überarbeiten

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id