999 resultados para Analisi di rischio - Biogas - Modellizzazione - GasSim
Resumo:
L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.
Resumo:
Nella tesi è stata effettuata un'analisi di un giunto strutturale, ponendo particolare attenzione ad alcuni aspetti teorici riguardanti i bulloni, la saldatura MIG/MAG e gli estensimetri. Si è, poi, passati alla struttura vera e propria, illustrando il giunto fornito dall'azienda Cepi, con i relativi calcoli.
Resumo:
Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.
Resumo:
L'adroterapia è una delle tecniche utilizzate ad oggi per trattare i tumori ed è basata sull'utilizzo di fasci di particelle cariche, come protoni e ioni carbonio, accelerati sulla zona da trattare. A differenza dei fotoni, utilizzati in radioterapia, le particelle cariche permettono un rilascio di energia più mirato, danneggiando il DNA delle cellule tumorali fino ad impedirne la duplicazione, senza intaccare i tessuti sani circostanti. Per sfruttare al meglio questa tecnica è necessario conoscere a fondo i processi di frammentazione nucleare che possono avere luogo durante il trattamento, sui quali si hanno ancora insufficienti dati sperimentali, in particolare a proposito della frammentazione del bersaglio. L'esperimento FOOT (FragmentatiOn Of Target) nasce proprio per poter misurare le sezioni d'urto differenziali dei processi di frammentazione nucleare alle tipiche energie dell'adroterapia, dai 60 MeV/u ai 400 MeV/u. Allo stato attuale l'esperimento è dotato di un apparato per la rivelazione di frammenti carichi pesanti e uno per quelli leggeri, mentre non ha un sistema di rivelazione per le particelle neutre. Si sta quindi valutando la possibilità di aggiungere rivelatori di neutroni, per esempio gli scintillatori liquidi BC-501A, i quali permettono di discriminare fotoni da neutroni grazie alla diversa forma del segnale prodotto (Pulse Shape Discrimination). Per studiare le prestazioni di questi rivelatori, essi si stanno attualmente testando alla facility n_TOF del CERN con diverse sorgenti di particelle. In questo lavoro di tesi mi sono occupata di analizzare i segnali raccolti da due BC-501A con una sorgente AmBe di raggi γ e neutroni, con schermo in piombo, e con una sorgente 88Y di soli raggi γ, evidenziando le buone capacità di questi rivelatori di identificare correttamente neutroni e fotoni.
Resumo:
La financial literacy viene definita dall’Ocse come il processo per mezzo del quale i cittadini migliorano la loro comprensione su prodotti finanziari, i concetti ad essi correlati e i rischi associati e, attraverso l’informazione, l’istruzione e consigli oggettivi, sviluppano le capacità e la fiducia nella propria consapevolezza dei rischi e delle opportunità finanziarie, di sapere dove chiedere aiuto, e intraprendere altre azioni efficaci per migliorare il proprio benessere economico. Attraverso una contestualizzazione sociale, scolastica e metodologica, il lavoro di tesi si propone di indagare i livelli di financial literacy tra gli studenti di quattro classi superiori di diverso grado. Una prima indagine avviene attraverso un pre-test sulle conoscenze finanziarie, cultura e rapporto affettivo con il mondo finanziario. Successivamente viene proposto un percorso composto da tre attività originali riguardanti il “gioco in borsa”, la pianificazione e il futuro, e le leggi finanziarie. Si analizzano: l’applicazione di conoscenze matematiche, i ragionamenti e gli atteggiamenti degli studenti nelle quattro classi.
Resumo:
Nel primo punto del capitolo seguente si propone una panoramica sulla decarbonizzazione del settore energetico e si discutono i principali provvedimenti europei avviati a tal fine. Si analizza lo scenario energetico italiano e le sue prospettive future; anche l’Italia deve impegnarsi in termini di energie rinnovabili e riduzione dei gas serra. Nel settore energetico nazionale sono comprese la produzione, la trasformazione e l’utilizzo di energia elettrica. In questa fase in particolare, si studiano i dati relativi alla fase di produzione. Inoltre, si studia la dipendenza energetica dell’Italia dalle fonti fossili estere. Di seguito saranno analizzati i piani energetici auspicabili per il 2030 e per il 2050. Nel secondo punto si passa poi all’analisi dei consumi, attraverso lo studio dei consumi medi e l’approfondimento sui consumi dei principali elettrodomestici. Nella prima sezione del capito che segue vengono analizzati i principali sistemi di accumulo di energia domestica con particolare enfasi riguardo i limiti applicativi. Le batterie a litio seppur relativamente economiche hanno un forte impatto ambientale che sarebbe ammortizzato utilizzando un nuovo modello di volano (MechSTOR). Nella seconda parte del capitolo, si esamina invece la fattibilità del modello di accumulo a volano. I costi del volano verrebbero ammortizzati dal guadagno relativo all’immissione in rete di energia elettrica? L’analisi in Simulink ha permesso di lavorare con i segnali di potenza, utilizzando le curve di carico domestico e la curva di produzione fotovoltaica al fine di studiare la convenienza economica della batteria a volano.
Resumo:
Nel TCR - Termina container Ravenna, è importante che nel momento di scarico del container sul camion non siano presenti persone nell’area. In questo elaborato si descrive la realizzazione e il funzionamento di un sistema di allarme automatico, in grado di rilevare persone ed eventualmente interrompere la procedura di scarico del container. Tale sistema si basa sulla tecnica della object segmentation tramite rimozione dello sfondo, a cui viene affiancata una classificazione e rimozione delle eventuali ombre con un metodo cromatico. Inoltre viene identificata la possibile testa di una persona e avendo a disposizione due telecamere, si mette in atto una visione binoculare per calcolarne l’altezza. Infine, viene presa in considerazione anche la dinamica del sistema, per cui la classificazione di una persona si può basare sulla grandezza, altezza e velocità dell’oggetto individuato.
Resumo:
La ricerca di esopianeti è un ambito astrofisico in continua evoluzione. Nuovi metodi vengono proposti con l’obiettivo di individuare pianeti con una varietà di caratteristiche sempre più ampia, per poter definire al meglio la storia di formazione ed evoluzione dei sistemi planetari. Un metodo recente in grado di caratterizzare pianeti di piccola massa è lo studio della variazione del tempo di transito (TTV), basato sulla modulazione del periodo orbitale di un pianeta noto causata dalla perturbazione di un corpo aggiuntivo. In questo lavoro proponiamo l’analisi delle curve di luce del pianeta XO-2Nb al fine di individuare TTV. Questo sistema è di particolare rilevanza poiché ospitato dalla prima stella binaria wide in cui entrambe le componenti presentano un proprio sistema planetario. Tra le due stelle solo XO-2N presenta un pianeta transitante, requisito per l’applicazione del metodo proposto. L’analisi dei dati è stata svolta utilizzando il metodo della fotometria differenziale di apertura, normalizzando la curva di luce del target ad altre due stelle di riferimento presenti nel campo di vista dello strumento. I risultati ottenuti evidenziano l’assenza di variazioni di periodo orbitale per XO-2Nb e sono consistenti con un’effemeride lineare. La nuova effemeride calcolata risulta tre volte più precisa rispetto al più recente studio in letteratura, e permetterà di predire futuri transiti con una precisione migliore di un minuto fino al 2035. Abbiamo stabilito un limite superiore all’ampiezza del TTV permessa dai nostri dati, ricavando il valore massimo della massa di un eventuale pianeta perturbatore, pari a 0.15 masse terrestri. Abbiamo ricavato in maniera indipendente i parametri fisici ed orbitali di XO-2Nb, confermando e raffinando i valori presenti in letteratura. I risultati ottenuti suggeriscono che, in determinati casi, l’analisi fotometrica eseguita utilizzando telescopi medio-piccoli da terra può essere competitiva con i più avanzati telescopi spaziali.
Resumo:
Il documento riporta l'analisi di studio della redditività, in merito ad un eventuale investimento, conseguente all'acquisto di un macchinario automatizzato adibito allo smistamento pacchi di un'importante azienda internazionale che opera nel settore del trasporto merci: la DHL. Per la ricerca, sono state utilizzate informazioni, solo a fini statistici, reperite direttamente dall'azienda, previo il loro consenso al trattamento dei dati, presso la loro sede di Forlì. Queste non rappresentano, quindi, la reale situazione dell'azienda. Inoltre, le indicazioni relative al macchinario, che è il sorter automatico, sono state ricavate da manuali online o attraverso e-mail con gli uffici dell'azienda produttrice. Una volta quantificata la possibile redditività dell'investimento e il tempo necessario per essere vantaggioso per l'azienda, si sono redatte le conclusioni dello studio.
Resumo:
La tesi si propone di fornire un’analisi degli impianti fotovoltaici in bassa tensione sia dal punto di vista progettuale che economico e analizzare il recente schema di autoconsumo collettivo. La tesi prevede l’analisi di tre progetti differenti. Il primo riguarda la progettazione di un impianto residenziale di piccola taglia che si trova ad affrontare le problematiche causate dagli ombreggiamenti generati dai camini, comportando l’utilizzo di ottimizzatori. Viene discussa la pratica di connessione in iter semplificato e viene effettuata un’analisi economica riguardante la convenienza dell’installazione dell’impianto, della convenienza del sistema di accumulo e degli ottimizzatori in tre scenari di costo dell’energia differenti. Il secondo riguarda la progettazione di un impianto residenziale di piccola taglia con ridotto ombreggiamento. Viene discussa la pratica di connessione in iter ordinario e viene effettuata un’analisi economica riguardante la convenienza dell’installazione dell’impianto e della convenienza del sistema di accumulo suddividendo i consumi dell’utente nelle fasce di consumo e considerando una tariffa bioraria. L’ultimo progetto riguarda un impianto condominiale nello schema di autoconsumo collettivo. Vengono discussi i risultati della progettazione eseguita con il software SOLergo e in particolare viene mostrato il calcolo del carico vento secondo la normativa NTC 2018 e viene effettuata la verifica a ribaltamento per controllare la stabilità del sistema. Successivamente viene effettuata un’analisi dettagliata degli ombreggiamenti su PVsyst attraverso la realizzazione tridimensionale del condominio. Viene poi analizzato lo schema dell’autoconsumo collettivo per poi effettuare un’analisi economica complessiva con l’obiettivo di analizzare l’influenza degli incentivi presenti, in particolare per l’autoconsumo collettivo e valutare se l’installazione del sistema di accumulo risulti conveniente per i condomini.
Resumo:
Lo stabilimento forlivese di Bonfiglioli S.p.A., centrale nella produzione di riduttori epicicloidali per macchine mobili, escavatori, turbine eoliche e mobilità elettrica, è un elemento fondamentale per il successo dell’azienda che da anni è leader di mercato nella produzione di motoriduttori, azionamenti e inverter per numerosi settori. Questo fa sì che tale impianto sia da tempo oggetto di importanti investimenti per incrementare la produttività, migliorare la logistica interna, soddisfare standard di sicurezza e qualità di prodotto e di processo sempre più alti. Il presente elaborato si inserisce tra le attività di efficientamento dei flussi logistici di stabilimento e punta a valutare la possibilità di ricollocamento di un’isola robotizzata per montaggio di kit planetario all’interno del macro-reparto di assemblaggio, in previsione di investimenti attuali e futuri che ridisegneranno lo scenario produttivo interno. Per valutare la convenienza di spostamento è stata eseguita un’analisi costi-benefici, confrontando l’ubicazione attuale e un’alternativa possibile, condivisa con i responsabili dell’ente di ingegneria di processo, prendendo in esame i vantaggi che questa seconda porterebbe. È inoltre stato fatto un primo dimensionamento di massima (e cautelativo) per un’eventuale creazione di un supermarket per i kit montati dalla cella in esame. Scopo principale dell’elaborato oltre a quello di mettere in luce i miglioramenti possibili dei flussi logistici interni grazie allo spostamento di tale isola, è anche quello di portare una metodologia di analisi che possa poi essere riutilizzata e migliorata per progetti di relayout futuri a più ampio respiro, in un’ottica sempre più “Lean”.
Resumo:
Il presente lavoro ha lo scopo di valutare, tramite la creazione di un modello di calcolo, la fattibilità normativa, tecnica ed economica di una comunità energetica di tipo commerciale. Il caso studio analizzato si ispira a un’area commerciale di tipo B2B situata a nord di Bologna: sono stati analizzati vari scenari in ognuno dei quali è stata implementata una diversa configurazione. Quella di partenza dispone di un impianto fotovoltaico centralizzato da 660 kWp e montato su pensiline adibite a parcheggio: negli altri scenari, a questa configurazione, è stato aggiunto un sistema di ricarica per veicoli elettrici e successivamente anche un sistema di accumulo. Nello studio di quest’ultimo scenario sono emerse delle contraddizioni che rendevano priva di senso l’installazione di accumulatori per migliorare la convenienza economica della CER; pertanto, è stata cambiata la configurazione di partenza proponendo un impianto non più centralizzato, bensì, distribuito sui tetti dei membri della CER. Al fine di valutare la fattibilità economica delle diverse configurazioni proposte, è stato utilizzato come indicatore il tempo di ritorno (TR). I risultati mostrano come la configurazione che presenta il TR inferiore è quella dell’impianto distribuito con i sistemi di accumulo. Per concludere è stata condotta un’analisi di sensibilità in cui sono stati variati uno alla volta i seguenti parametri: il numero dei membri, la quota dei consumi in F1 e il costo dell’energia in bolletta. Si è visto che aumentando il numero dei membri, incrementa l’energia condivisa e quindi anche il ricavo dato dalla quota incentivante: il tutto si riflette in un tempo di ritorno via via inferiore. Una maggiore concentrazione dei consumi in F1 comporta un aumento dell’energia condivisa e conseguentemente una diminuzione del tempo di ritorno. Infine, si è osservato che all’aumentare del costo della componente energia in bolletta incrementano i risparmi e diminuisce il tempo di ritorno.
Resumo:
Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.
Resumo:
L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.
Resumo:
Negli ultimi anni si sono riscontrati in tutto il territorio Nazionale un consistente aumento di eventi incendiari negli impianti di stoccaggio e smaltimento rifiuti. In questo elaborato troviamo una prima panoramica sulle normative nazionali riguardanti la prevenzione incendi, le emergenze e l’ambiente. Successivamente si focalizza l’attenzione sulle Linee Guida dei piani di Emergenza Esterni .La parte delle linee guida relativa al “Metodo ad indici per la classificazione del rischio incendio negli impianti di stoccaggio e trattamento rifiuti” , è stata elaborata a partire dalla metodologia per la gestione del rischio di incendio negli impianti di deposito di rifiuti. Le linee guida a cui ci si riferisce hanno ritenuto di considerare l'incendio quale scenario di riferimento per la valutazione del rischio dell'impianto, anche a seguito della complessità e variabilità delle caratteristiche dei rifiuti che comportano una differente pericolosità degli effluenti. La procedura sviluppata prevede un metodo di valutazione del rischio ad indici che consiste nell’attribuire determinati punteggi a fattori di rischio e misure di prevenzione e protezione presenti nell’impianto e considerando i pericoli per la salute umana e l’ambiente circostante. Il metodo ha l’obiettivo di semplificare e unificare i criteri di classificazione dei livelli di rischio in tali impianti, in base al livello viene quindi stabilita una certa distanza di attenzione su cui poi si baseranno i Piani di Emergenza Esterni. Il metodo ad indici esposto nelle Linee Guida è stato quindi testato su un caso studio. I risultati ottenuti da tale elaborazione sono stati poi integrati e contestualizzati con l’ausilio del software QGIS attraverso il quale si sono ricavate mappe raffiguranti i vari impianti e le loro rispettive distanze di attenzione, le quali saranno conferite alle autorità competenti per lo sviluppo di efficienti Piani di Emergenza Esterni.