Dataproc e Apache Spark forniscono l'infrastruttura e la capacità che puoi utilizzare per eseguire simulazioni Monte Carlo scritte in Java, Python o Scala.
I metodi Monte Carlo possono aiutare a rispondere a un'ampia gamma di domande in ambito commerciale, ingegneria, scienza, matematica e altri campi. Usando dati casuali ripetuti un campionamento per creare una distribuzione di probabilità per una variabile, La simulazione di Carlo può fornire risposte a domande che altrimenti impossibile rispondere. In finanza, ad esempio, la determinazione del prezzo di un'opzione azionaria richiede di analizzare i migliaia di modi in cui il prezzo dell'azione potrebbe cambiare nel tempo. I metodi Monte Carlo offrono un modo per simulare le variazioni di prezzo delle azioni rispetto a una un'ampia gamma di risultati possibili, pur mantenendo il controllo sul dominio possibili input per il problema.
In passato, l'esecuzione di migliaia di simulazioni poteva richiedere molto tempo e ma maturano costi elevati. Dataproc ti consente di eseguire il provisioning della capacità on demand e di pagarla a minuto. Apache Spark consente di utilizzare di decine, centinaia o migliaia di server per eseguire simulazioni intuitivo e scalabile in base alle tue esigenze. Ciò significa che puoi eseguire più simulazioni più rapidamente, il che può aiutare la tua attività a innovare più velocemente e gestire meglio i rischi.
La sicurezza è sempre importante quando si lavora con dati finanziari. Dataproc viene eseguito su Google Cloud, il che contribuisce a mantenere i tuoi dati al sicuro, protetti e privati in diversi modi. Ad esempio, tutti i dati vengono criptati durante la trasmissione e quando sono a riposo e Google Cloud è conforme a ISO 27001, SOC3 e PCI.
Obiettivi
- Crea un cluster Dataproc gestito con Apache Spark preinstallato.
- Esegui una simulazione Monte Carlo utilizzando Python per stimare la crescita di un'azione portafoglio nel tempo.
- Esegui una simulazione di Monte Carlo utilizzando Scala per simulare il modo in cui un casinò guadagna.
Costi
In questo documento utilizzi i seguenti componenti fatturabili di Google Cloud:
Per generare una stima dei costi basata sull'utilizzo previsto,
utilizza il Calcolatore prezzi.
Una volta completate le attività descritte in questo documento, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, consulta la pagina Pulizia.
Prima di iniziare
- configura un progetto Google Cloud
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataproc and Compute Engine APIs.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataproc and Compute Engine APIs.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
Creazione di un cluster Dataproc
Segui i passaggi per creare un cluster Dataproc dalla console Google Cloud. Le impostazioni predefinite del cluster, che includono nodi 2 worker sono sufficienti per questo tutorial.
Disattivazione del logging per gli avvisi
Per impostazione predefinita, Apache Spark stampa il logging dettagliato nella finestra della console. Per scopo di questo tutorial, modifica il livello di logging in modo da registrare solo gli errori. Segui questi passaggi:
Utilizza ssh
per connetterti al nodo principale del cluster Dataproc
Il nodo principale del cluster Dataproc ha il suffisso -m
nel nome della VM.
- In the Google Cloud console, go to the VM instances page.
- In the list of virtual machine instances, click SSH in the row of the instance that you want to connect to.
Si apre una finestra SSH connessa al nodo principale.
Connected, host fingerprint: ssh-rsa 2048 ... ... user@clusterName-m:~$
Modifica l'impostazione di logging
Modifica
/etc/spark/conf/log4j.properties
dalla home directory del nodo principale.sudo nano /etc/spark/conf/log4j.properties
Imposta
log4j.rootCategory
uguale aERROR
.# Set only errors to be logged to the console log4j.rootCategory=ERROR, console log4j.appender.console=org.apache.log4j.ConsoleAppender log4j.appender.console.target=System.err log4j.appender.console.layout=org.apache.log4j.PatternLayout log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n
Salva le modifiche ed esci dall'editor. Se vuoi riattivare il logging dettagliato, annulla la modifica ripristinando il valore originale (
INFO
) per.rootCategory
.
Linguaggi di programmazione Spark
Spark supporta Python, Scala e Java come linguaggi di programmazione per la e offre interpreti interattivi per Python e Scala. La lingua che scegli è una questione di preferenza personale. Questo tutorial utilizza di interpreti interattivi perché puoi fare esperimenti modificando il codice, provando diversi valori di input, quindi visualizzando i risultati.
Stima della crescita del portafoglio
In finanza, a volte i metodi Monte Carlo vengono utilizzati per eseguire simulazioni che cercano di predire il rendimento di un investimento. Producendo campioni casuali di risultati in un intervallo di probabili condizioni di mercato, una simulazione di Monte Carlo può rispondere a domande sul rendimento medio di un portafoglio o in scenari peggiori.
Segui questa procedura per creare una simulazione che utilizzi i metodi di Monte Carlo per tentare di stimare la crescita di un investimento finanziario in base ad alcuni fattori di mercato comuni.
Avvia l'interprete Python dal nodo principale Dataproc.
pyspark
Attendi il prompt di Spark
>>>
.Inserisci il seguente codice. Assicurati di mantenere l'indentazione nella definizione della funzione.
import random import time from operator import add def grow(seed): random.seed(seed) portfolio_value = INVESTMENT_INIT for i in range(TERM): growth = random.normalvariate(MKT_AVG_RETURN, MKT_STD_DEV) portfolio_value += portfolio_value * growth + INVESTMENT_ANN return portfolio_value
Premi
return
finché non visualizzi di nuovo il prompt di Spark.Il codice precedente definisce una funzione che modella ciò che potrebbe accadere quando un l'investitore ha un conto pensionistico già investito sul mercato azionario, a cui aggiunge entrate ogni anno. La funzione genera un ritorno sull'investimento casuale, in percentuale, ogni anno per la durata di un periodo specificato. La funzione assume un valore seed come parametro. Questo valore viene utilizzato per ripristinare il generatore di numeri casuali che assicura che la funzione non ottenga lo stesso elenco di numeri casuali a ogni esecuzione. La funzione
random.normalvariate
garantisce che sia casuale si verificano in un distribuzione normale per la media e la deviazione standard specificate. La funzione aumenta il valore del portafoglio dell'importo della crescita, che può essere positivo o negativo, e aggiunge una somma annuale che rappresenta un ulteriore investimento.Definisci le costanti richieste in un passaggio successivo.
Crea molti semi da fornire alla funzione. Al prompt di Spark, inserisci il seguente codice, che genera 10.000 semi:
seeds = sc.parallelize([time.time() + i for i in range(10000)])
Il risultato dell'operazione
parallelize
è un set di dati distribuito resiliente (RDD), ovvero una raccolta di elementi ottimizzati per l'elaborazione parallela. In questo caso, l'RDD contiene i seed basati su l'ora di sistema attuale.Durante la creazione dell'RDD, Spark suddivide i dati in base al numero di worker e core disponibili. In questo caso, Spark sceglie di utilizzare otto sezioni, una sezione per ogni core. Va bene per questa simulazione, che ha 10.000 dati. Per simulazioni più grandi, ogni sezione potrebbe essere più grande del valore limite predefinito. In questo caso, specificare un secondo parametro per
parallelize
puoi aumentare il numero di slice, il che può contribuire a mantenere gestibili le dimensioni di ogni slice, mentre Spark sfrutta comunque tutti e otto i core.Alimenta l'RDD che contiene i semi alla funzione di crescita.
results = seeds.map(grow)
Il metodo
map
passa ogni seed nell'RDD alla funzionegrow
e Aggiunge ogni risultato a un nuovo RDD, che viene archiviato inresults
. Nota che questa operazione, che esegue una trasformazione, non produca la sua i risultati immediatamente. Spark non eseguirà questa operazione finché i risultati non saranno necessari. Questa valutazione lazy è il motivo per cui è possibile inserire il codice senza che le costanti siano definito.Specifica alcuni valori per la funzione.
INVESTMENT_INIT = 100000 # starting amount INVESTMENT_ANN = 10000 # yearly new investment TERM = 30 # number of years MKT_AVG_RETURN = 0.11 # percentage MKT_STD_DEV = 0.18 # standard deviation
Richiama
reduce
per aggregare i valori nell'RDD. Inserisci il seguente codice per sommare i risultati nell'RDD:sum = results.reduce(add)
Stima e visualizza il ritorno medio:
print (sum / 10000.)
Assicurati di includere il punto (
.
) alla fine. Indica aritmetica in virgola mobile.Ora modifica un'ipotesi e osserva come cambiano i risultati. Ad esempio, puoi inserire un nuovo valore per il rendimento medio del mercato:
MKT_AVG_RETURN = 0.07
Esegui di nuovo la simulazione.
print (sc.parallelize([time.time() + i for i in range(10000)]) \ .map(grow).reduce(add)/10000.)
Al termine dell'esperimento, premi
CTRL+D
per uscire dall'interprete Python.
Programmazione di una simulazione Monte Carlo in Scala
Monte Carlo, ovviamente, è famosa come meta per i giochi e scommesse. In questa sezione, usi Scala per creare una simulazione che modella il vantaggio matematico a cui un casinò ama in un gioco di fortuna. Il "bordo della casa" in un casinò reale varia notevolmente da gioco a gioco; può essere superiore al 20% keno, ad esempio. Questo un tutorial crea un gioco semplice in cui la casa ha solo l'1% vantaggio. Ecco come funziona il gioco:
- Il giocatore effettua una scommessa, composta da un certo numero di fiches da un fondo del bankroll.
- Il giocatore tira un dado con 100 facce (che sarebbe bello?).
- Se il risultato è un numero compreso tra 1 e 49, il giocatore vince.
- Per i risultati da 50 a 100, il giocatore perde la scommessa.
Puoi vedere che questo gioco crea uno svantaggio dell'1% per il giocatore: in 51 dei 100 possibili risultati per ogni lancio, il giocatore perde.
Per creare ed eseguire il gioco:
Avvia l'interprete Scala dal nodo principale Dataproc.
spark-shell
Copia e incolla il seguente codice per creare il gioco. Scala non ha gli stessi requisiti di Python per quanto riguarda il rientro, quindi puoi semplicemente copiare e incollare questo codice al prompt
scala>
.val STARTING_FUND = 10 val STAKE = 1 // the amount of the bet val NUMBER_OF_GAMES = 25 def rollDie: Int = { val r = scala.util.Random r.nextInt(99) + 1 } def playGame(stake: Int): (Int) = { val faceValue = rollDie if (faceValue < 50) (2*stake) else (0) } // Function to play the game multiple times // Returns the final fund amount def playSession( startingFund: Int = STARTING_FUND, stake: Int = STAKE, numberOfGames: Int = NUMBER_OF_GAMES): (Int) = { // Initialize values var (currentFund, currentStake, currentGame) = (startingFund, 0, 1) // Keep playing until number of games is reached or funds run out while (currentGame <= numberOfGames && currentFund > 0) { // Set the current bet and deduct it from the fund currentStake = math.min(stake, currentFund) currentFund -= currentStake // Play the game val (winnings) = playGame(currentStake) // Add any winnings currentFund += winnings // Increment the loop counter currentGame += 1 } (currentFund) }
Premi
return
finché non viene visualizzato il messaggioscala>
.Inserisci il seguente codice per giocare 25 volte, che è il valore predefinito per
NUMBER_OF_GAMES
.playSession()
Il tuo bankroll ha iniziato con un valore di 10 unità. Ora è più alto o più basso?
Ora simula 10.000 giocatori che scommettono 100 fiches a partita. Giocare 10.000 partite in una sessione. Questa simulazione Monte Carlo calcola la probabilità di perdere tutto il denaro prima della fine della sessione. Inserisci il seguente codice:
(sc.parallelize(1 to 10000, 500) .map(i => playSession(100000, 100, 250000)) .map(i => if (i == 0) 1 else 0) .reduce(_+_)/10000.0)
Tieni presente che la sintassi
.reduce(_+_)
è una forma abbreviata in Scala per l'aggregazione mediante una funzione di somma. È funzionalmente equivalente.reduce(add)
che hai visto nell'esempio Python.Il codice precedente esegue i seguenti passaggi:
- Crea un RDD con i risultati della riproduzione della sessione.
- Sostituisce i risultati dei giocatori in bancarotta con il numero
1
e i risultati diversi da zero con il numero0
. - Somma il numero di giocatori in bancarotta.
- Divide il numero per il numero di giocatori.
Un risultato tipico potrebbe essere:
0.998
Il che rappresenta una quasi garanzia di perdere tutto il denaro, anche se casinò aveva solo un vantaggio dell'1%.
Esegui la pulizia
Elimina il progetto
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.
Passaggi successivi
- Per saperne di più sull'invio di job Spark a Dataproc senza dover utilizzare
ssh
per connettersi al cluster, consulta Dataproc: invia un job