Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Matrix-Vektor-Produkt – Wikipedia
Matrix-Vektor-Produkt – Wikipedia 👆 Click Here!
aus Wikipedia, der freien Enzyklopädie
Bei einer Matrix-Vektor-Multiplikation muss die Spaltenzahl der Matrix gleich der Zahl der Komponenten des Vektors sein. Die Komponentenzahl des Ergebnisvektors entspricht dann der Zeilenzahl der Matrix.

Das Matrix-Vektor-Produkt ist in der linearen Algebra das Produkt einer Matrix mit einem Spaltenvektor. Damit eine solche Matrix-Vektor-Multiplikation durchgeführt werden kann, muss die Spaltenzahl der Matrix mit der Zahl der Komponenten des Vektors übereinstimmen. Das Ergebnis ist dann wieder ein Spaltenvektor, dessen Elemente durch komponentenweise Multiplikation und Summation der Einträge der entsprechenden Zeile der Matrix mit den Elementen des Ausgangsvektors ermittelt werden. Das Matrix-Vektor-Produkt kann als Spezialfall einer Matrizenmultiplikation angesehen werden, bei der die zweite Matrix aus nur einer Spalte besteht.

Das Matrix-Vektor-Produkt wird beispielsweise in der Matrixschreibweise linearer Gleichungssysteme sowie bei iterativen Verfahren zu ihrer numerischen Lösung eingesetzt. Weiter kann jede lineare Abbildung zwischen endlichdimensionalen Vektorräumen nach Wahl entsprechender Basen als Matrix-Vektor-Produkt dargestellt werden.

Definition

[Bearbeiten | Quelltext bearbeiten]
Zur Berechnung des Matrix-Vektor-Produkts wird jede Zeile der Matrix mit den Einträgen des Vektors kombiniert.

Ist K {\displaystyle K} {\displaystyle K} ein Körper (meist die reellen oder komplexen Zahlen), dann ist die Matrix-Vektor-Multiplikation eine Abbildung

⋅   : K m × n × K n → K m , ( A , x ) ↦ y = A ⋅ x {\displaystyle \cdot ~\colon K^{m\times n}\times K^{n}\to K^{m},\quad (A,x)\mapsto y=A\cdot x} {\displaystyle \cdot ~\colon K^{m\times n}\times K^{n}\to K^{m},\quad (A,x)\mapsto y=A\cdot x},

die einer Matrix A = ( a i j ) {\displaystyle A=(a_{ij})} {\displaystyle A=(a_{ij})} und einem Spaltenvektor x = ( x j ) {\displaystyle x=(x_{j})} {\displaystyle x=(x_{j})} einen weiteren Spaltenvektor y = ( y i ) {\displaystyle y=(y_{i})} {\displaystyle y=(y_{i})} zuordnet. Die Matrix-Vektor-Multiplikation ist dabei nur für den Fall definiert, dass die Spaltenzahl n {\displaystyle n} {\displaystyle n} der Matrix A {\displaystyle A} {\displaystyle A} mit der Zahl der Komponenten des Vektors x {\displaystyle x} {\displaystyle x} übereinstimmt. Die Komponentenzahl des Ergebnisvektors y {\displaystyle y} {\displaystyle y} entspricht dann der Zeilenzahl m {\displaystyle m} {\displaystyle m} der Matrix A {\displaystyle A} {\displaystyle A}. Jedes Element y i {\displaystyle y_{i}} {\displaystyle y_{i}} des Ergebnisvektors berechnet sich dabei über

y i = ∑ j = 1 n a i j ⋅ x j {\displaystyle y_{i}=\sum _{j=1}^{n}a_{ij}\cdot x_{j}} {\displaystyle y_{i}=\sum _{j=1}^{n}a_{ij}\cdot x_{j}},

also durch komponentenweise Multiplikation der Einträge der i {\displaystyle i} {\displaystyle i}-ten Zeile von A {\displaystyle A} {\displaystyle A} mit den Elementen von x {\displaystyle x} {\displaystyle x} und durch Summation über diese Produkte. Häufig wird bei der Notation eines Matrix-Vektor-Produkts der Malpunkt weggelassen und man schreibt kurz A x {\displaystyle Ax} {\displaystyle Ax} statt A ⋅ x {\displaystyle A\cdot x} {\displaystyle A\cdot x}.

Beispiel

[Bearbeiten | Quelltext bearbeiten]

Gegeben sei die reelle Matrix und der reelle (Spalten-)Vektor

A = ( 3 2 1 1 0 2 ) ∈ R 2 × 3 {\displaystyle A={\begin{pmatrix}3&2&1\\1&0&2\end{pmatrix}}\in \mathbb {R} ^{2\times 3}} {\displaystyle A={\begin{pmatrix}3&2&1\\1&0&2\end{pmatrix}}\in \mathbb {R} ^{2\times 3}}   und   x = ( 1 0 4 ) ∈ R 3 {\displaystyle x={\begin{pmatrix}1\\0\\4\end{pmatrix}}\in \mathbb {R} ^{3}} {\displaystyle x={\begin{pmatrix}1\\0\\4\end{pmatrix}}\in \mathbb {R} ^{3}}.

Da die Matrix A {\displaystyle A} {\displaystyle A} ebenso viele Spalten besitzt, wie der Vektor x {\displaystyle x} {\displaystyle x} lang ist, ist das Matrix-Vektor-Produkt A ⋅ x {\displaystyle A\cdot x} {\displaystyle A\cdot x} definiert, die betreffende Matrix-Vektor-Multiplikation also überhaupt durchführbar. Nachdem A {\displaystyle A} {\displaystyle A} zwei Zeilen hat, wird der Ergebnisvektor y {\displaystyle y} {\displaystyle y} ebenfalls zwei Elemente aufweisen. Um das erste Element des Ergebnisvektors zu berechnen, betrachtet man die erste Zeile von A {\displaystyle A} {\displaystyle A}, multipliziert die jeweils entsprechenden Einträge dieser Zeile mit denen des Ausgangsvektors und summiert die Ergebnisse auf (die Sternchen stehen für noch nicht berechnete Elemente):

( 3 2 1 1 0 2 ) ⋅ ( 1 0 4 ) = ( 3 ⋅ 1 + 2 ⋅ 0 + 1 ⋅ 4 ∗ ) = ( 7 ∗ ) {\displaystyle {\begin{pmatrix}\color {OliveGreen}3&\color {OliveGreen}2&\color {OliveGreen}1\\1&0&2\end{pmatrix}}\cdot {\begin{pmatrix}\color {BrickRed}1\\\color {BrickRed}0\\\color {BrickRed}4\end{pmatrix}}={\begin{pmatrix}{\color {OliveGreen}3}\cdot {\color {BrickRed}1}+{\color {OliveGreen}2}\cdot {\color {BrickRed}0}+{\color {OliveGreen}1}\cdot {\color {BrickRed}4}\\\ast \end{pmatrix}}={\begin{pmatrix}{\color {Blue}7}\\\ast \end{pmatrix}}} {\displaystyle {\begin{pmatrix}\color {OliveGreen}3&\color {OliveGreen}2&\color {OliveGreen}1\\1&0&2\end{pmatrix}}\cdot {\begin{pmatrix}\color {BrickRed}1\\\color {BrickRed}0\\\color {BrickRed}4\end{pmatrix}}={\begin{pmatrix}{\color {OliveGreen}3}\cdot {\color {BrickRed}1}+{\color {OliveGreen}2}\cdot {\color {BrickRed}0}+{\color {OliveGreen}1}\cdot {\color {BrickRed}4}\\\ast \end{pmatrix}}={\begin{pmatrix}{\color {Blue}7}\\\ast \end{pmatrix}}}

Für das zweite Element des Ergebnisvektors betrachtet man entsprechend die zweite Zeile von A {\displaystyle A} {\displaystyle A} und berechnet analog:

( 3 2 1 1 0 2 ) ⋅ ( 1 0 4 ) = ( 7 1 ⋅ 1 + 0 ⋅ 0 + 2 ⋅ 4 ) = ( 7 9 ) {\displaystyle {\begin{pmatrix}3&2&1\\\color {OliveGreen}1&\color {OliveGreen}0&\color {OliveGreen}2\end{pmatrix}}\cdot {\begin{pmatrix}\color {BrickRed}1\\\color {BrickRed}0\\\color {BrickRed}4\end{pmatrix}}={\begin{pmatrix}7\\{\color {OliveGreen}1}\cdot {\color {BrickRed}1}+{\color {OliveGreen}0}\cdot {\color {BrickRed}0}+{\color {OliveGreen}2}\cdot {\color {BrickRed}4}\end{pmatrix}}={\begin{pmatrix}7\\{\color {Blue}9}\end{pmatrix}}} {\displaystyle {\begin{pmatrix}3&2&1\\\color {OliveGreen}1&\color {OliveGreen}0&\color {OliveGreen}2\end{pmatrix}}\cdot {\begin{pmatrix}\color {BrickRed}1\\\color {BrickRed}0\\\color {BrickRed}4\end{pmatrix}}={\begin{pmatrix}7\\{\color {OliveGreen}1}\cdot {\color {BrickRed}1}+{\color {OliveGreen}0}\cdot {\color {BrickRed}0}+{\color {OliveGreen}2}\cdot {\color {BrickRed}4}\end{pmatrix}}={\begin{pmatrix}7\\{\color {Blue}9}\end{pmatrix}}}

Als Ergebnis erhält man so am Ende das Matrix-Vektor-Produkt y = A ⋅ x {\displaystyle y=A\cdot x} {\displaystyle y=A\cdot x}.

Eigenschaften

[Bearbeiten | Quelltext bearbeiten]

Das Matrix-Vektor-Produkt ist assoziativ in dem Sinne, dass für Matrizen A ∈ K l × m {\displaystyle A\in K^{l\times m}} {\displaystyle A\in K^{l\times m}}, B ∈ K m × n {\displaystyle B\in K^{m\times n}} {\displaystyle B\in K^{m\times n}} und Vektoren x ∈ K n {\displaystyle x\in K^{n}} {\displaystyle x\in K^{n}}

A ⋅ ( B ⋅ x ) = ( A ⋅ B ) ⋅ x {\displaystyle A\cdot (B\cdot x)=(A\cdot B)\cdot x} {\displaystyle A\cdot (B\cdot x)=(A\cdot B)\cdot x}

gilt. Das Matrix-Vektor-Produkt ist auch verträglich mit der Multiplikation von Skalaren a ∈ K {\displaystyle a\in K} {\displaystyle a\in K}, das heißt

a ( A ⋅ x ) = ( a A ) ⋅ x = A ⋅ ( a x ) {\displaystyle a\,(A\cdot x)=(a\,A)\cdot x=A\cdot (a\,x)} {\displaystyle a\,(A\cdot x)=(a\,A)\cdot x=A\cdot (a\,x)}.

Betrachtet man die komponentenweise Matrizenaddition A + B {\displaystyle A+B} {\displaystyle A+B} zweier Matrizen A , B ∈ K m × n {\displaystyle A,B\in K^{m\times n}} {\displaystyle A,B\in K^{m\times n}} sowie die Vektoraddition zweier Vektoren x , y ∈ K n {\displaystyle x,y\in K^{n}} {\displaystyle x,y\in K^{n}}, dann sind auch die Distributivgesetze erfüllt, das heißt

( A + B ) ⋅ x = A ⋅ x + B ⋅ x {\displaystyle (A+B)\cdot x=A\cdot x+B\cdot x} {\displaystyle (A+B)\cdot x=A\cdot x+B\cdot x}

und

A ⋅ ( x + y ) = A ⋅ x + A ⋅ y {\displaystyle A\cdot (x+y)=A\cdot x+A\cdot y} {\displaystyle A\cdot (x+y)=A\cdot x+A\cdot y}.

Algorithmus

[Bearbeiten | Quelltext bearbeiten]

In Pseudocode kann das Matrix-Vektor-Produkt wie folgt implementiert werden:

function matrix-vector-product(A,x,m,n)
  y = zeroes(m)                      // Ergebnisvektor y mit Nullen initialisieren
  for i = 1 to m                     // Schleife über die Zeilen von A
    for j = 1 to n                   // Schleife über die Elemente von x
      y(i) = y(i) + A(i,j) * x(j)    // Bildung der Produktsumme
    end
  end
  return y

Die Reihenfolge der beiden For-Schleifen kann dabei auch vertauscht werden. Da die beiden Schleifen unabhängig voneinander sind, ist die Anzahl der benötigten arithmetischen Operationen von der Ordnung

O ( m ⋅ n ) {\displaystyle O(m\cdot n)} {\displaystyle O(m\cdot n)}.

Die Laufzeit des Algorithmus ist für quadratische Matrizen ( m = n ) {\displaystyle (m=n)} {\displaystyle (m=n)} demnach von der Ordnung O ( n 2 ) {\displaystyle O(n^{2})} {\displaystyle O(n^{2})}. Spezielle Matrizen, wie Bandmatrizen, dünnbesetzte Matrizen oder Toeplitz-Matrizen, können durch Ausnutzen der Struktur auch effizienter mit einem Vektor multipliziert werden.

Geometrische Interpretation

[Bearbeiten | Quelltext bearbeiten]

Im bis zu 3-dimensionalen Fall einer Multiplikation von einer Matrix mit einem Vektor kann man schon anhand der Zahlen in der Matrix erkennen, wie die Matrix als lineare Abbildung "aussieht". Sei zum Beispiel eine 2-dimensionale Ebene mit den Basisvektoren

x → = ( 1 0 ) , y → = ( 0 1 ) {\displaystyle {\vec {x}}={\begin{pmatrix}1\\0\end{pmatrix}},{\vec {y}}={\begin{pmatrix}0\\1\end{pmatrix}}} {\displaystyle {\vec {x}}={\begin{pmatrix}1\\0\end{pmatrix}},{\vec {y}}={\begin{pmatrix}0\\1\end{pmatrix}}} gegeben. Einen Vektor in dem 2-dimensionalen Vektorraum wird mit Hilfe der Basisvektoren dargestellt. Meistens werden implizit diese beiden Basisvektoren benutzt. Möchte man zum Beispiel den Vektor v → = ( 4 7 ) {\displaystyle {\vec {v}}={\begin{pmatrix}4\\7\end{pmatrix}}} {\displaystyle {\vec {v}}={\begin{pmatrix}4\\7\end{pmatrix}}} als Linearkombination mit diesen Basisvektoren darstellen, so setzt sich der Vektor v → {\displaystyle {\vec {v}}} {\displaystyle {\vec {v}}} durch v → = 4 ⋅ x → + 7 ⋅ y → = 4 ⋅ ( 1 0 ) + 7 ⋅ ( 0 1 ) {\displaystyle {\vec {v}}=4\cdot {\vec {x}}+7\cdot {\vec {y}}=4\cdot {\begin{pmatrix}1\\0\end{pmatrix}}+7\cdot {\begin{pmatrix}0\\1\end{pmatrix}}} {\displaystyle {\vec {v}}=4\cdot {\vec {x}}+7\cdot {\vec {y}}=4\cdot {\begin{pmatrix}1\\0\end{pmatrix}}+7\cdot {\begin{pmatrix}0\\1\end{pmatrix}}} zusammen. Setzt man die Basisvektoren x → {\displaystyle {\vec {x}}} {\displaystyle {\vec {x}}} und y → {\displaystyle {\vec {y}}} {\displaystyle {\vec {y}}} als Matrix zusammen, erhält man ( 1 0 0 1 ) {\displaystyle {\begin{pmatrix}1&0\\0&1\end{pmatrix}}} {\displaystyle {\begin{pmatrix}1&0\\0&1\end{pmatrix}}}. Das ist die Einheitsmatrix E 2 {\displaystyle E_{2}} {\displaystyle E_{2}}. Möchte man zum Beispiel mit einer Matrix eine lineare Abbildung beschreiben, die eine 90° Drehung gegen den Uhrzeigersinn beschreibt, so kann man sich vorstellen, der x → {\displaystyle {\vec {x}}} {\displaystyle {\vec {x}}} Basisvektor sich dreht und dann zu ( 0 1 ) {\displaystyle {\begin{pmatrix}0\\1\end{pmatrix}}} {\displaystyle {\begin{pmatrix}0\\1\end{pmatrix}}}wird. Dreht man den y → {\displaystyle {\vec {y}}} {\displaystyle {\vec {y}}} Basisvektor um 90° gegen den Uhrzeigersinn, ergibt sich intuitiv ( − 1 0 ) {\displaystyle {\begin{pmatrix}-1\\0\end{pmatrix}}} {\displaystyle {\begin{pmatrix}-1\\0\end{pmatrix}}}. Die Matrix, die nun die 90° Rotation gegen den Uhrzeigersinn beschreibt, ist damit ( 0 − 1 1 0 ) {\displaystyle {\begin{pmatrix}0&-1\\1&0\end{pmatrix}}} {\displaystyle {\begin{pmatrix}0&-1\\1&0\end{pmatrix}}}. Aus dieser Betrachtungsweise kann man die Zahlen in einer Matrix geometrisch interpretieren.

Verwendung

[Bearbeiten | Quelltext bearbeiten]

Das Matrix-Vektor-Produkt wird in der linearen Algebra häufig verwendet. So ist die Matrixschreibweise eines linearen Gleichungssystems

A ⋅ x = b {\displaystyle A\cdot x=b} {\displaystyle A\cdot x=b}

nichts anderes als eine Vektorgleichung, auf deren linken Seite ein Matrix-Vektor-Produkt steht. Viele iterative Verfahren zur numerischen Lösung linearer Gleichungssysteme, wie das Verfahren der konjugierten Gradienten oder allgemeine Krylow-Unterraum-Verfahren, basieren auf wiederholten Matrix-Vektor-Multiplikationen. Auch die Potenzmethode zur Ermittlung des betragsgrößten Eigenwerts einer Matrix basiert auf der wiederholten Berechnung von Matrix-Vektor-Produkten.

Sind allgemein V {\displaystyle V} {\displaystyle V} und W {\displaystyle W} {\displaystyle W} zwei endlichdimensionale Vektorräume über dem gleichen Körper, dann kann jede lineare Abbildung f : V → W {\displaystyle f\colon V\to W} {\displaystyle f\colon V\to W} nach Wahl je einer Basis in beiden Vektorräumen über ihre Abbildungsmatrix M f {\displaystyle M_{f}} {\displaystyle M_{f}} dargestellt werden. Das Bild y {\displaystyle y} {\displaystyle y} eines Vektors x {\displaystyle x} {\displaystyle x} unter der Abbildung f {\displaystyle f} {\displaystyle f} in den jeweiligen Basen kann dann über das Matrix-Vektor-Produkt

y = M f ⋅ x {\displaystyle y=M_{f}\cdot x} {\displaystyle y=M_{f}\cdot x}

ermittelt werden. In der Geometrie lässt sich beispielsweise auf diese Weise jede Drehung um den Ursprung und jede Spiegelung an einer Ursprungsebene durch ein solches Matrix-Vektor-Produkt ausführen, ebenso jede Axonometrie in geeigneten Koordinaten. Auch diskrete Faltungen, beispielsweise die diskrete Fourier-Transformation, können als Matrix-Vektor-Produkt realisiert werden.

In den Wirtschaftswissenschaften wird das Matrix-Vektor-Produkt bei der Input-Output-Analyse benutzt.

Literatur

[Bearbeiten | Quelltext bearbeiten]
  • Gene Golub, Charles van Loan: Matrix Computations. JHU Press, 2012, ISBN 1-4214-0794-9. 
  • Charles Leiserson, Ronald L. Rivest, Clifford Stein: Algorithmen – eine Einführung. Oldenbourg, 2010, ISBN 3-486-59002-2. 
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Matrix-Vektor-Produkt&oldid=259740177“
Kategorie:
  • Lineare Algebra

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id