Das "normale" \(R^2\) zeigt die, wie viele Prozent der Streuung deiner Daten durch das Modell erklärt werden kann, es liegt daher zwischen 0 und 1.
Anders formuliert: Das \(R^2\) gibt an wie gut deine geschätzte Regressionsgerade die Datenpunkte abbildet.
Das \(adjusted R^2\) zeigt dir auch wie gut die Gerade deine Daten abbildet, aber bestraft dein Modell für die Anzahl an erklärenden Variablen. Du könntest ja theoretisch unendlich viele erklärende Variablen in dein Modell einbringen, selbst wenn einige gar keinen Einfluss auf die abhängige Variable haben kann es aus Zufall einen positiven Beitrag für den Fit deines Modells haben. Wenn du jetzt ein Modell schätzt, dass ein \(R^2\) von 0 hat, dann kann dein \(adjusted R^2\) auch einen negativen Wert aufweisen, da du eine Bestrafung für jeden weiteren erklärenden Faktor erhältst.
Diese Erklärung ist allerdings nur sehr oberflächlich, aber ich hoffe sie hilft Dir trotzdem :)
Student, Punkte: 695