Ricerca ad albero Monte Carlo

Oggi entriamo in un mondo affascinante, che ci dà l'opportunità di esplorare e scoprire Ricerca ad albero Monte Carlo da una prospettiva completamente nuova. Ricerca ad albero Monte Carlo è un argomento che ha catturato l'attenzione di milioni di persone in tutto il mondo, sia per la sua rilevanza storica, culturale o scientifica. In questo articolo approfondiremo Ricerca ad albero Monte Carlo, esplorandone le origini, il suo impatto sulla società odierna e le possibili implicazioni per il futuro. Unisciti a noi in questo viaggio di scoperta e apprendimento, mentre sveliamo i misteri e le meraviglie che Ricerca ad albero Monte Carlo ha in serbo per noi.

Ricerca ad albero Monte Carlo
Le quattro fasi dell'algoritmo
Classealgoritmo di ordinamento
Struttura datiGrafo

La ricerca ad albero Monte Carlo (nota anche come MCTS, acronimo dell'inglese Monte Carlo tree search) è un algoritmo di ricerca euristica sviluppato per la ricerca in alberi di decisione, che ha applicazione nella soluzione di giochi da tavolo.

L'algoritmo venne introdotto nel 2006 per il gioco del go ed è stato in seguito applicato ad altri giochi ad informazione perfetta come scacchi e Shōgi, a giochi ad informazione incompleta come bridge e poker, e a videogiochi di strategia a turni come Total War: Rome II.

MCTS opera espandendo l'albero di ricerca delle mosse più promettenti tramite campionamento casuale dello spazio di ricerca usando il metodo Monte Carlo. La ricerca si basa sull'esecuzione di numerosi playout (o rollout), dove ogni playout consiste nell'esecuzione di un'intera partita a partire dalla posizione corrente, selezionando le mosse a caso. Il risultato della partita è poi usato per pesare le mosse eseguite, e il peso determina la probabilità di eseguire la stessa mossa in successivi playout.

Note

  1. ^ David Silver, Aja Huang, Chris J. Maddison, Arthur Guez, Laurent Sifre, George van den Driessche, Julian Schrittwieser, Ioannis Antonoglou, Veda Panneershelvam, Marc Lanctot, Sander Dieleman, Dominik Grewe, John Nham, Nal Kalchbrenner, Ilya Sutskever, Timothy Lillicrap, Madeleine Leach, Koray Kavukcuoglu, Thore Graepel e Demis Hassabis, Mastering the game of Go with deep neural networks and tree search, in Nature, vol. 529, n. 7587, 28 gennaio 2016, pp. 484–489, Bibcode:2016Natur.529..484S, DOI:10.1038/nature16961, ISSN 0028-0836 (WC · ACNP), PMID 26819042.
  2. ^ (EN) David Silver, Thomas Hubert, Julian Schrittwieser, Ioannis Antonoglou, Matthew Lai, Arthur Guez, Marc Lanctot, Laurent Sifre, Dharshan Kumaran, Thore Graepel, Timothy Lillicrap, Karen Simonyan, Demis Hassabis, A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play, in Science, vol. 362, n. 6419, 7 dicembre 2018, pp. 1140-1144, DOI:10.1126/science.aar6404.
  3. ^ Stuart J. Russell, Peter Norvig, Artificial Intelligence: A Modern Approach, 3rd, Prentice Hall, 2009.
  4. ^ Jonathan Rubin e Ian Watson, Computer poker: A review (PDF), in Artificial Intelligence, vol. 175, 5–6, aprile 2011, pp. 958–987, DOI:10.1016/j.artint.2010.12.005 (archiviato dall'url originale il 13 agosto 2012).
  5. ^ Monte-Carlo Tree Search in TOTAL WAR: ROME II's Campaign AI, su AI Game Dev. URL consultato il 25 febbraio 2017 (archiviato dall'url originale il 13 marzo 2017).

Bibliografia