Student, Punkte: 85
Hallo,
ich bin Informatik-Student. In meinem Studiengang tauchte in der Stochastik der Begriff Entropie auf. Es ist da Maß für die Ungewissheit. Die Einheit ist davon Bit, wenn man in folgender Berechnungsformel für den Logarithmus die Basis 2 setzt:
\( H(X) = - \sum_{i=0}^n (p_{i} * log (p_{i})) \)
X ist eine Zufallsgröße
\( p_{i}\) ist die i-te Wahrscheinlichkeit, auch bekannt als \( P(X=x_{i}) z.B. P(X=1) = \frac {1} {6} \)
Meine Fragen sind jetzt: Wo kommt die Entropie bei Anwendungsaufgaben zum Einsatz? Was hat Informationsgewinn damit zu tun?
Beispielaufgabe zu Informationsgewinn aus einem aufgabenblatt zur Entropie:
Sie sollen eine dreistellige Zahl errraten (111 bis 999). Wieviel Informationsgewinn gibt Ihnen die zusätzliche Auskunft, dass die Quersumme der gesuchten Zahl gleich 11 ist?
Wie löst man diese Aufgabe?
Danke
Mit freundlichen Grüßen,
Mortex