Rang / Defekt / Logik

Aufrufe: 95     Aktiv: 06.02.2021 um 02:08

0
Ich habe folgendes Verständnisproblem. Ich kann keine Querverbindung zwischen Rang und Basis herstellen und daher weiterführend vieles nicht beantworten. Die Dimension gibt an, wie viele linear unabhängige Vektoren ich brauche, um eine Dimension aufzuspannen. D.h. Dimension = b3 := {b1, b2, b3}. (ist mein Lösungsansatz richtig)

Das größere Problem ist jedoch das Verständnis des Defektes [Defekt = dim(ker(f))] -> z.b. definiere ich eine Abbildungsmatrix und diejenigen Werte, mit denen ich multiplizieren muss (für die Abbildung), sodass der Nullvektor herauskommt sind der Kern der Funktion.
Die Spalten der Matrix sagen meines Wissens nichts über die Dimension aus (sondern effektiv die Zeilen mit der Koordinatisierung).. jetzt könnte ich z.B. eine Matrix bestimmen [(10,5)(8,2)(20,10)]=> dann wäre die Dimension des aufgespannten 2, weil ich 2 unabhängige Basen benötige um den Vektor darzustellen (und die Matrix beispielsweise ein Darstellungsmatrix], dann müsste ich jedoch jedenfalls mit 3 Werten multiplizieren, die wenn sie auf Null abbilden der Kern sind, dann wäre, wenn möglich die Dimension des Kerns, die Menge an linear unabhängigen Basen, die ich benötige um den Vektor darzustellen?
Problem ist vor allem, dass das ich gerade nicht weiß, inwieweit sich das fassen lässt [(x1,y1).....(xn,yn)] (jeweils untereinander - je mehr es davon gibt, umso mehr x brauche ich, da A *x = b, und umso größer wird der Bereich, der als Kern definiert ist (sein könnte), wenn er auf 0 abbildet (also A (Darstellungsmatrix) * x => Kern, wenn auf 0 abbildet) - oder ist die 2-Dimensionale Darstellungsmatrix durch die kanonische Basis wohldefiniert und daher 2x2 (dann wäre die Defektdimension 2, sofern A mit x auf 0 abbildet?)

Bin momentan leider komplett verwirrt, und zu dem finde ich wirklich nichts, was mir weiterhelfen könnte
Danke schon mal im Voraus :)
Diese Frage melden
gefragt

Auszubildender, Punkte: 148

 

Kommentar schreiben

1 Antwort
1
Ohje... schau dir bitte sämtliche Begriffe noch einmal an, du wirfst da einiges durcheinander. 

Dimension: Anzahl linear unabhängiger Vektoren, um einen Vektorraum (nicht Dimension) aufzuspannen. Oder eben die Anzahl der Basisvektoren. Hat man maximal linear unabhängige Vektoren, so bilden diese eine Basis des Vektorraums. Für eine Basis des \(\mathbb{R}^3\) braucht man also 3 Vektoren, die linear unabhängig sind, da die Dimension 3 ist.

Der Defekt ist nun die Dimension des Kerns und der Kern sind alle Vektoren, die auf 0 abgebildet werden. Bei einer Matrix also alle Vektoren mit \(Ax=0\) und \(x\neq 0\).

In kompletten folgenden Absatz spricht du dauernd von linear unabhängigen Basen. Das ist falsch. Das sind Vektoren und keine Basen. Außerdem ist nicht ganz klar, was du hier mit "um den Vektor darzustellen" meinst. Welchen Vektor denn?

In diesem Zusammenhang hattet ihr bestimmt schon den Rangsatz. Es gilt $$\mathrm{dim}(V)=\mathrm{\dim}(\mathrm{ker}(A))+\mathrm{rg}(A).$$ Den Rang einer Matrix kann man berechnen, indem man sie auf Zeilenstufenform bringt und alle Nicht-Nullzeilen zählt. Aus dem Rangsatz folgt dann sofort, dass die Anzahl der Nullzeilen die Dimension des Kern ist. 

Ich hoffe, die Antwort hilft dir ein wenig weiter.
Diese Antwort melden
geantwortet

Selbstständig, Punkte: 7.09K
 

Kleine Korrektur: minimales statt maximales Erzeugendensystem bildet eine Basis   ─   mathejean 05.02.2021 um 21:11

Ich rede von maximal linear unabhängigen Vektoren, nicht von der minimalen Anzahl an Vektoren, um einen Vektorraum aufzuspannen. Kleiner, aber feiner Unterschied. ;-)   ─   cauchy 05.02.2021 um 21:12

Ups, sry :D   ─   mathejean 05.02.2021 um 21:18

Ja ich habe zu intensiv gelernt - bin jetzt dadurch komplett verwirrt. Die Basisbegriffe verstehe ich, lineare Abbildungen usw. auch (also z.B. dass man 3 linear unabhängige Vektoren benötigt, um einen dreidimensionalen Raum aufzuspannen (vereinfachterweise immer mit den kanonischen Repräsentanten) - ob es theoretisch im R3 auch 4 linear unabhängige Basisvektoren geben könnte - weiß ich nicht (war auch in der Form nicht Vorlesungsstoff) - lässt sich aber aus der Definition der Dimension herausdeuten: Die Anzahl der Vektoren in der Basis, die linear unabhängig sind, ist die Dimension des Vektorraums (so die Definition ca.)
Das Problem das Wissen jetzt irgendwie zusammenfügen verwirrt mich nur. Wenn ich z.B. (lineare Abbildungen) vom R2 in den R2 abbilden möchte nehme ich die kanonischen Repräsentanten und bilde sie ab und kann sie nach dem Fortsetzungssatz (das Bild einsetzen) und mit der Linearkombination in den neuen Vektorraum abbilden. Auch allgemein erscheint mir alles zum Thema lineare Abbildungen relativ logisch (auch von 2 d in 3 dimensionales Abbilden usw.)

Mein Problem, bzw. die Verwirrung kommt jetzt nur so zustande: Ich habe eine Matrix (2 * 8) (oder 4 * 8), die 2-Dimensional ist?
1. Allgemeines Definitionsproblem: eine Nullmatrix ist 0-Dimensional (keine Ausdehnung - Punkt), 1-Dimensional wäre ja theoretisch eine Ausdehnung in x-Richtung (), 2-Dimensional (wäre eine Fläche) - dh (x y)... (kann man das bei Vektoren so anwenden?),
2. Die Zeilen eines Vektors geben immer an, wie viele Dimensionen es geben könnte (oder habe ich mich durch die lineare Algebra zu sehr verwirren lassen (x, y, z) -> eine Matrix der Form (4 * 8 - hätte ja demnach 4-Dimensionen und keine 2) - (wenn ich eine Matrix habe 2 * 3 => dann sind impliziterweise 2 Spalten linear abhängig, da der Rang sonst 3 Wäre und dim U <= dim V (R2) sein sollte (was wieder dem entsprechende würde, dass eine Basis nur aus so vielen Elementen bestehen kann, wie die Dimension es vorgibt Dimension n => |B| = n

Und verwirrt hat mich zusätzlich der Kern von f (insbesondere deswegen, da wir kein Stufenverfahren selbst einmal durchprobiert haben - nur bez. zur Evaluierung des Ranges) - und ich mir das noch immer nicht erklären kann wie das funktionieren kann.
Wir sprechen von einem Vektorraum R2 (bspw, da es für mich am anschaulichsten ist)
d.h. 2 (Dimension R2) = die Dimension, die verloren geht, weil sie auf den Nullvektor abgebildet wird + die Dimension der linear unabhängigen Spalten / Zeilen

Nur wie man sich das vorstellen kann ist mir nicht ganz klar (eben zu den Problemen von vorhin bezogen.
z.B. ((1,0) (0,1) (10,3) (4,3) ....) (3 zeilen wären ja 3 Dimensional)
besser gesagt (10,5) (20,10) (die Dimension von V müsste 2 sein) = 2 Dimensionen gehen verloren, wird auf 0 abgebildet (beide Dimension 1 und 2 ist linear abhängig, daher gehen beide verloren?) - auf jeden Fall muss der Rang = 1 sein, da nach Errechnen (10 20 0 0 ) und daher der Defekt impliziterweise 1 (1 Dimensionen geht verloren)
Wenn der Defekt von R2 ein wäre, wäre eine Dimension zweier Vektoren voneinander abhängig? z.B. (10, 3) (20, 2) (dann könnte ich entweder die oder die Dimension verlieren, je nachdem?) - oder kann ich eine Dimension nur dann verlieren, wenn die Vektoren völlig voneinander abhängig sind? (könnte ich auch mehrere Dimensionen verlieren, z.B. im R3? - oder immer nur eine?)

Aber ich verstehe abseits davon nicht, wie sich die Dimension des Kerns definiert, und da hänge ich momentan komplett eben (v1 .... vn) (2d) * (x ) => dann könnte x der Kern sein (das Stufenleiterverfahren ist logisch, aber praktisch verstehe ich es nicht wirklich

Vielen Dank für deine Antwort - auch wenn sie mir bezüglich der Prüfung Angst macht - hab nur leider wieder etwas überdreht mit dem Lernen (also bin ich hoffentlich nicht so inkompetent, wie es die Frage vermuten lässt - nur, wenn ich nur einen kleinen Teil nicht verstehe bricht so ein wenig das ganze System zusammen) - und irgendwann... ist man dann einfach komplett verwirrt (lerne & arbeite seit 8 Monaten inkl. Wochenende durch - irgendwann ists zu viel :/ )

Hoffe du kannst mir da noch weiterhelfen - und nochmal, vielen, vielen Dank für deine Antwort :)
  ─   infomarvin 05.02.2021 um 21:36

Ok ich glaube ich habe verstanden, wie sich dee Rang und die Dimension des Defektes ausrechnet, was auch bedeutet, dass die Zeilen = den Dimensionen sind, dann nimmt man alle Vektoren (um auf lineare Unabhängigkeit zu prüfen), errechnet dann den Spaltenrang, alle ungleich 0 und der Defekt alle gleich 0
Das ist die ganze Kunst dahinter oder? 😅 ev. nur kurz wenn was falsch wiedergegeben sein sollte mich bitte noch kurz darauf hinweisen, danke 🙂
  ─   infomarvin 05.02.2021 um 22:21

>> ob es theoretisch im R3 auch 4 linear unabhängige Basisvektoren geben könnte - weiß ich nicht

gibt es natürlich nicht, da eine Basis die maximale Anzahl lin. unabhängiger Vektoren enthält. War mit Sicherheit Vorlesungsstoff. ;-)

>>Mein Problem, bzw. die Verwirrung kommt jetzt nur so zustande: Ich habe eine Matrix (2 * 8) (oder 4 * 8), die 2-Dimensional ist?

Es fängt schon wieder bei der Schreibweise an. Meinst du jetzt eine \((2\times 8)\)-Matrix? Wie soll diese Matrix zweidimensional sein? Die Dimension dieser Matrix IST \((2\times 8)\)! Verwechsel das bitte nicht mit der Dimension des Vektorraums oder dem Rang der Matrix.

>>1. Allgemeines Definitionsproblem: eine Nullmatrix ist 0-Dimensional (keine Ausdehnung - Punkt), 1-Dimensional wäre ja theoretisch eine Ausdehnung in x-Richtung (), 2-Dimensional (wäre eine Fläche) - dh (x y)... (kann man das bei Vektoren so anwenden?),

So grob. Ich würde aber keine Zeit daran verschwenden, mir vorzustellen, wie das aussieht. Es sei denn man hat explizit Anwendungsaufgaben im Zwei- oder Dreidimensionalen, wie man es aus der Schule kennt.

>>2. Die Zeilen eines Vektors geben immer an, wie viele Dimensionen es geben könnte (oder habe ich mich durch die lineare Algebra zu sehr verwirren lassen (x, y, z) -> eine Matrix der Form (4 * 8 - hätte ja demnach 4-Dimensionen und keine 2)

Auch hier sind deine Formulierungen wieder schlecht. Warum mehrere Dimensionen? Es ist hier besser, von DER Dimension zu sprechen, da es eben nur EINE Zahl ist. Und was hat (x,y,z) jetzt mit einer \((4\times 8)\)-Matrix zu tun? Und auch hier nochmal, die Matrix hat keine 4 Dimensionen und auch keine zwei. Sondern die Dimension \((4\times 8)\). Du meinst hier vermutlich den Rang der Matrix. Der kann natürlich zwischen 0 und 4 liegen. Daraus folgt für dein weiteres Beispiel natürlich, dass der Rang der Matrix höchstens zwei sein kann, da du nur zwei Zeilen hast.

>>Wir sprechen von einem Vektorraum R2 (bspw, da es für mich am anschaulichsten ist)
d.h. 2 (Dimension R2) = die Dimension, die verloren geht, weil sie auf den Nullvektor abgebildet wird + die Dimension der linear unabhängigen Spalten / Zeilen

Völlig unklar, was du hier wieder meinst. Der Vektorraum \(\mathbb{R}^2\) HAT die Dimension 2. Da geht nichts verloren. Warum auch? Meinst du eher einen Untervektorraum des \(\mathbb{R}^2\)? Und WAS wird auf den Nullvektor abgebildet? Die Dimension? Zumindest liest sich das so.

>>besser gesagt (10,5) (20,10) (die Dimension von V müsste 2 sein) = 2 Dimensionen gehen verloren, wird auf 0 abgebildet (beide Dimension 1 und 2 ist linear abhängig, daher gehen beide verloren?)

Auch nicht klar, was das sein soll. Was ist \(V\)? Und WAS wird auf 0 abgebildet? Der Rang dieser Matrix ist natürlich nur 1, weil die Zeilen linear abhängig sind, ja. Deswegen hat auch der Kern der Matrix die Dimension 1 nach dem Rangsatz, denn die Dimension vom Kern und der Rang der Matrix ergeben zusammen die Anzahl der Zeilen der Matrix.

>>oder kann ich eine Dimension nur dann verlieren, wenn die Vektoren völlig voneinander abhängig sind? (könnte ich auch mehrere Dimensionen verlieren, z.B. im R3? - oder immer nur eine?)

Ja, weil die Dimension des Kerns dann größer als 0 ist. Betrachte drei paarweise linear abhängige Vektoren im \(\mathbb{R}^3\). Dann hat der Kern die Dimension 2, da die Matrix den Rang 1 hat.

>>Aber ich verstehe abseits davon nicht, wie sich die Dimension des Kerns definiert, und da hänge ich momentan komplett eben (v1 .... vn) (2d) * (x ) => dann könnte x der Kern sein (das Stufenleiterverfahren ist logisch, aber praktisch verstehe ich es nicht wirklich

Der Kern einer linearen Abbildung eines Vektorraums ist ein Untervektorraum. Die Dimension ist genauso definiert wie für alle anderen Unterräume bzw. dem Vektorraum selbst. Der Kern enthält einfach nur alle Vektoren, die von der Abbildung auf 0 abgebildet werden. Zum Beispiel bildet die Matrix $$\begin{pmatrix}1 & 0 & 0 \\ 0 & 1 & 0\\ 0 & 0 & 0\end{pmatrix}$$ jeden Vektor der Form $$\begin{pmatrix}0 \\ 0 \\ \lambda\end{pmatrix}$$ mit \(\lambda\in \mathbb{R}\) auf den Nullvektor ab, weil die dritte Zeile eine Nullzeile ist. Folglich ist der Kern dieser Matrix bzw. Abbildung gerade die Menge all dieser Vektoren. Als Basisvektor können wir \(\lambda=1\) wählen. Da nur ein Vektor in der Basis des Kerns ist, ist die Dimension 1. Der Rang der Matrix ist 2, was man sofort sieht und nach dem Rangsatz ergibt sich dann wieder die Dimension 3 des \(\mathbb{R}^3\).

Vielleicht hat das Beispiel etwas geholfen. Es ist schon schwierig, dich zu verstehen, weil du teilweise echt mit den Begriffen umherwirfst und es völlig unklar ist, was genau du meinst.
  ─   cauchy 05.02.2021 um 22:39

Anmerkung zu deinem anderen Kommentar, den du zwischenzeitlich geschrieben hast: Hier passt du schon wieder mit den Begriffen nicht auf. Der Defekt hat KEINE Dimension. Der Defekt ist definiert ALS die Dimension des Kerns. Bitte passe beim Formulieren auf, dass du die Begriffe richtig verwendest.   ─   cauchy 05.02.2021 um 22:42

Ja mit den Begriffen ist es so eine Sache - bitte nimm's mir nicht zu böse - mir gehts ums Verständnis und da bin ich mir noch nicht sicher bezüglich der Dimensionen und dem Rang (jetzt wo ich weiter die Vorlesung geschaut habe)
Es ist z.B. eine Matrix gegeben (1 2 (1. Zeile) 2 4 (2. Zeile))=> die kann auch dargestellt werden als (1 2 ) da die Spalten linear abhängig sind (so hats der Professor erklärt), er hat dann eben berechnet, dass der Rang 1 sei (alle Zeilen != 0) und die Defekt Defintionsmenge (x + 2y (1. Zeile) 2x + 4y (2. Zeile) -> dafür müsste man einsetzen (-2 1) (und dann errechnet, das eben das die Dimension 1 hat??) - da gilt dim(ker f)= def f = 1 (in dem Fall) (also müsste ein Vektor der Form (a,b) 1-Dimensional sein?)

Und er hat dazu einfach nur gemeint es ginge eine Dimension verloren
Sinngemäß: "Die Dimension des Kerns ist 1. Sie verlieren 1 Dimension nämlich in Richtung (-2 1), das wird auf 0 abgebildet, der Rest wird auf diese Gerade abgebildet. Die Ebene schrumpft zusammen auf eine gerade - weil eine Richtung (1 Dimensionsrichtung) auf 0 zusammengestaucht wird"

Und genau da liegt mein Problem warum ist ein Vektor (1 2 ) bspw. nicht dasselbe wie z.B. (1 2) (2 1 ) - habe ich durch die Hinzunahme eines weiteren Vektors 1 Dimension mehr (schon langsam hab ich das Gefühl, dass man mit einem ?-Dimensionalen Vektor (x y) nur eine Strecke aufspannen kann, und mit einem 2. Vektor (der linear unabhängig zum 1. Vektor ist, sonst fallen die Vektoren zusammen (wie im aufgezeigten Bsp.), der auch 2-Dimensional ist; eine Fläche?

Ich brauche also zwei linear unabhängige Vektoren der Form (a, b) (c,d) um einen 2-Dimensionalen Raum aufzuspannen, brauche aber lt. Dimensionsbegriff 2 Basisvektoren, um (a,b) zu erzeugen (und hätte damit mit (a,b) ohne (c,d) bereits einen 2-Dimensionalen Raum - also eine Fläche) - warum geht dann irgendwas wie im Bsp. verloren, weil die Vektoren linear abhängig sind?

Danke für deine Geduld und Hilfe :)
  ─   infomarvin 05.02.2021 um 23:05

Ja, aber wild Begriffe zu benutzen ohne sie zu verstehen, ruft genau diese Verwirrung hervor. Nicht nur bei dir, sondern auch bei allen, die das lesen.

>>da gilt dim(ker f)= def f = 1 (also müsste ein Vektor der Form (a,b) 1-Dimensional sein?)

Nein. Wie viele Komponenten der Vektor hat, ist unerheblich. Der Kern umfasst nur EINEN Vektor bzw. deren Vielfache davon und deswegen ist die Dimension 1. Schau dir an, wie die Dimension eines Vektorraums bzw. Untervektorraums definiert ist. Wie gesagt, der Kern ist ein UVR. Das hat nichts mit der Dimension des Vektors zu tun.

>>Und genau da liegt mein Problem warum ist ein Vektor (1 2 ) bspw. nicht dasselbe wie z.B. (1 2) (2 1 ) - habe ich durch die Hinzunahme eines weiteren Vektors 1 Dimension mehr

WAS ist nicht dasselbe? Der erzeugte (Unter)Vektorraum? Das ein Vektor und eine aus zwei Spalten bestehende Matrix nicht dasselbe sind, sollte doch eigentlich offensichtlich sein. Falls du hier tatsächlich den erzeugten UVR meinst, dann überlege mal, warum sich an der Dimension nichts ändert, wenn man einen linear abhängigen Vektor dazupackt. Wenn man einen linear unabhängigen Vektor hinzunimmt, hat der neue erzeugte Vektorraum eine Dimension mehr.

>>Ich brauche also zwei linear unabhängige Vektoren der Form (a, b) (c,d) um einen 2-Dimensionalen Raum aufzuspannen, brauche aber lt. Dimensionsbegriff 2 Basisvektoren, um (a,b) zu erzeugen (und hätte damit mit (a,b) ohne (c,d) bereits einen 2-Dimensionalen Raum - also eine Fläche) - warum geht dann irgendwas wie im Bsp. verloren, weil die Vektoren linear abhängig sind?

Wenn du zwei linear unabhängige Vektoren hast, hast du doch bereits eine Basis. Passt doch. Und warum ohne (c,d)? Du kannst mit einem einzigen Vektor keinen zweidimensionalen Raum aufspannen. Wie gesagt, nimm dir einen beliebigen Vektor. Dieser Vektor spannt einen eindimensionalen Raum auf. Warum? Nimm einen linear abhängigen Vektor hinzu. Wie ändert sich der Raum? Nimm dann einen linear unabhängigen Vektor dazu. Wie ändert sich der Raum jetzt und was bedeutet das für die Dimension? In der Ebene kann man sich sowas sehr gut aufmalen.





  ─   cauchy 05.02.2021 um 23:17

Mich hat nur folgende Definition verwirrt: Besitzt ein Vektorraum V eine endliche Basis B, so ist die Dimension dim V gleich der Anzahl |B| der Vektoren von B. (also die Anzahl der maximalen unabhängigen Vektoren bestimmt die Dimension, die vollends mit diesen Basisvektoren aufgespannt werden kann) (...) (sonst kann man sich nicht wirklich etwas darunter vorstellen...) Was soll man mit der Information anfangen können: Ich habe mir dann folgendes vorgestellt: ich nehme einen Vektor aus dem R2 : (10 / 5) = 10 * e1 + 5 *e2 und habe mir gedacht, dass der Vektor einfach 2-Dimensional sei. Um eine 2-Dimensionale Fläche aufzuspannen (das wollte ich zwischenzeitlich sowieso einmal fragen) reicht ja das quasi nicht aus (außer man nähme die x-Achse als Abgrenzung - sehr hypothetisch))
Also wirklich die allerletzte Frage: ich brauche um eine 2-Dimensionale Fläche aufzuspannen 2 unabhängige Vektoren (mehr gibt es auch nicht in der 2. Dimension lt. Definition), für eine 3-Dimensionale eben 3. Sollte es durch irgendeine Linearkombination der Vektoren möglich sein, durch eine lineare Abbildung auf 0 abzubilden, so definiert sich dieser Punkt als Kern.

Die Dimension des Kerns ist glaub ich einfacher zu verstehen/ zu berechnen, wenn man zuerst den Rang berechnet und die Rangformel berechnet - aber es prinzipiell ein Punkt (im 2 Dimensionalen Vektorraum?

Diesen könnte man genauso wie den Rang mithilfe des Stufenverfahrens ausrehnen (dim(f(V)) (^= !=0); Kerndimension (Spalte / Zeile die nur 0 enthält)
Habe mir jetzt bei den Begriffen mehr Mühe gegeben - hoffe das passt so, und hoffe auch jeder versteht, dass es nicht sinnvoll ist von Fragenden etwas lernen zu wollen :D

Danke jedenfalls für deine umfassende Hilfe & Geduld :)
  ─   infomarvin 05.02.2021 um 23:45

Die Definition ist doch völlig klar. Die Dimension eines Vektorraums ist die Anzahl der Elemente in der Basis. Und eine Basis ist ein minimales Erzeugendensystem oder die Menge maximal linear unabhängiger Vektoren, ganz richtig.

Was ist denn ein Vektor im \(\mathbb{R}^2\)? Male ihn auf! Das sollte aus der Schule bekannt sein. Spannt er eine Fläche auf? Sicherlich nicht. Wenn du die x-Achse hinzunimmst, hast du automatisch einen zweiten Vektor, nämlich (1,0)!

Nein, falsche Schlussfolgerung. Im Raum reichen ebenfalls zwei Vektoren. Vergleiche Ebenengleichungen mit zwei Spannvektoren, die eine Ebene (Fläche) aufspannen. Nur weil der Vektor drei Komponenten hat, was immer noch nichts mit der Dimension zu tun, heißt es nicht, dass ich drei Vektoren brauche. Dann hätte ich nämlich einen Raum.

Der Kern ist nicht immer eindimensional. Das hast du immer noch nicht verstanden. Der Kern kann auch nur den Nullvektor enthalten. Dann hat er die Dimension 0, zum Beispiel wenn deine Matrix vollen Rang hat. Er kann aber auch die Dimension 2 oder höher haben, wenn deine Matrix nur den Rang 1 hat.
  ─   cauchy 05.02.2021 um 23:59

Bin in eine kaufmännische höhere Schule gegangen, da haben wir mit Matrizen In- und Output berechnet von Produktionen usw. Hab im Sommer so gut wie es ging Defizite aufgeholt, die größtenteils bei Algebra nicht einmal so zu bemerken waren, bei den Kapiteln mit den Vektoren/ Matrizen macht sich das jedoch leider schon bemerkbar (auch wenn es eins der letzten Themen ist, die zu lernen sind - aber möchte nichts auslassen)
Ja wieder falsche Begriffe verwendet: um eine Fläche aufzuspannen brauch ich 2 unabhängige Vektoren des R2 und in einem Körper 3 unabhängige Vektoren (ist mir jetzt auch nicht ganz klar, einmal hast du geschrieben im Körper/ Raum reichen 2 und einmal, wenn man 3 hat ist man im Raum/ Körper 😅)

Traurig, dass schwierige Beweise teilweise einfacher zu verstehen sind, als defizitäres Grundlagenwissen - danke auf jeden Fall :)
  ─   infomarvin 06.02.2021 um 00:49

Nicht ganz richtig. Im Raum reichen auch zwei Vektoren für eine Fläche. 3 Vektoren spannen einen Spat auf. Kannst du dir mal bei Wiki anschauen.   ─   cauchy 06.02.2021 um 02:08

Kommentar schreiben