Willkommen. Schön, sind Sie da!
Mein Ex Libris
20% auf ausgewählte E-Books
Zur Aktion

Multi-Armed Bandits

Beschreibung

Multi-armed bandit problems pertain to optimal sequential decision making and learning in unknown environments. Since the first bandit problem posed by Thompson in 1933 for the application of clinical trials, bandit problems have enjoyed lasting attention from...

Format auswählen

Kartonierter Einband
CHF74.80
E-Book (pdf)
CHF 65.90
CHF52.70
TIEFPREIS
CHF74.80
Print on Demand - Exemplar wird für Sie gedruckt. 
Kostenlose Lieferung 
Kein Rückgaberecht 
20% auf ausgewählte E-Books: Nur bis Montag

Wird oft zusammen gekauft

Andere Kunden kauften auch