Willkommen. Schön, sind Sie da!
Mein Ex Libris
20% auf ausgewählte E-Books
Zur Aktion

Multi-Armed Bandits

Rabatt

Beschreibung

Multi-armed bandit problems pertain to optimal sequential decision making and learning in unknown environments. Since the first bandit problem posed by Thompson in 1933 for the application of clinical trials, bandit problems have enjoyed lasting attention fro...

Format auswählen

E-Book (pdf)
CHF 65.90
CHF52.70
Kartonierter Einband
CHF74.80
-20%Sie sparen CHF 13.20
65.90
CHF52.70
Download steht sofort bereit 
Kein Rückgaberecht 
20% auf ausgewählte E-Books: Nur bis Montag

Wird oft zusammen gekauft

Andere Kunden kauften auch