Willkommen. Schön, sind Sie da!
Mein Ex Libris
🔥10% auf alle Bücher
Jetzt profitieren

Multi-Armed Bandits

Beschreibung

Multi-armed bandit problems pertain to optimal sequential decision making and learning in unknown environments. Since the first bandit problem posed by Thompson in 1933 for the application of clinical trials, bandit problems have enjoyed lasting attention fro...

Format auswählen

CHF65.90
Download steht sofort bereit 
Kein Rückgaberecht 
10% Rabatt auf alle Bücher

Wird oft zusammen gekauft

Andere Kunden kauften auch