Willkommen, schön sind Sie da!
Logo Ex Libris

Bedingte Entropie

  • Kartonierter Einband
  • 80 Seiten
(0) Erste Bewertung abgeben
Bewertungen
(0)
(0)
(0)
(0)
(0)
Alle Bewertungen ansehen
In der Informationstheorie ist die bedingte Entropie ein Maß für die Ungewissheit über den Wert einer Zufallsvariablen X, welche v... Weiterlesen
20%
50.00 CHF 40.00
Print on Demand - Exemplar wird für Sie gedruckt.
Kein Rückgaberecht!
Bestellung & Lieferung in eine Filiale möglich

Beschreibung

In der Informationstheorie ist die bedingte Entropie ein Maß für die Ungewissheit über den Wert einer Zufallsvariablen X, welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird. Die bedingte Entropie wird H(X Y) geschrieben und hat einen Wert zwischen 0 und H(X), der ursprünglichen Entropie von X. Sie wird in der gleichen Maßeinheit wie die Entropie gemessen. Speziell hat sie den Wert 0, wenn aus Y der Wert von X funktional bestimmt werden kann, und den Wert H(X), wenn X und Y stochastisch unabhängig sind.

Produktinformationen

Titel: Bedingte Entropie
Untertitel: Informationstheorie, Zufallsvariable
Editor:
EAN: 9786137964439
ISBN: 978-613-7-964
Format: Kartonierter Einband
Herausgeber: Turbspublishing
Genre: Naturwissenschaften allgemein
Anzahl Seiten: 80
Gewicht: 127g
Größe: H229mm x B152mm x T5mm
Jahr: 2011
Auflage: Aufl.