Willkommen. Schön, sind Sie da!
Mein Ex Libris
🔥10% auf alle Bücher
Jetzt profitieren

Multi-Armed Bandits

Rabatt

Beschreibung

Multi-armed bandit problems pertain to optimal sequential decision making and learning in unknown environments. Since the first bandit problem posed by Thompson in 1933 for the application of clinical trials, bandit problems have enjoyed lasting attention from...

Format auswählen

Kartonierter Einband
CHF 74.80
CHF67.30
E-Book (pdf)
CHF65.90
-10%Sie sparen CHF 7.50
74.80
CHF67.30
Print on Demand - Exemplar wird für Sie besorgt. 
Kostenlose Lieferung 
10% Rabatt auf alle Bücher

Wird oft zusammen gekauft

Andere Kunden kauften auch