729 resultados para riflessione ondosa, rete neurale, Matlab, database, analisi di sensibilità
Resumo:
Il lavoro svolto si concentra sullo studio e lo sviluppo dei sistemi software per la gestione dei big data. Inizialmente sono stati analizzati i settori nei quali i big data si stanno diffondendo maggiormente per poi studiare l'ingegnerizzazione e lo sviluppo dei sistemi in grado di gestire questo tipo di dati. Sono state studiate tutte le fasi del processo di realizzazione del software e i rischi e i problemi che si possono incontrare. Infine è stato presentato un software di analisi di big data: Google BigQuery.
Resumo:
Questa tesi si prefigge di analizzare le condizioni di stabilità di un argine inferiore del fiume Po situato presso il comune di Viadana (MN), più volte interessato da eventi franosi che si sono ripetuti con una certa frequenza nel corso degli ultimi anni. L'argomento proposto nella tesi prende spunto dall’esperienza presso il Polo Scientifico e Tecnologico di AIPO a Boretto (RE), nell’ambito del tirocinio formativo, durante il quale ho portato a termine un programma di prove geotecniche su campioni indisturbati prelevati nel sito interessato da fenomeni di instabilità, allo scopo di migliorare le conoscenze sulla risposta meccanica dei terreni arginali e del substrato di fondazione. Utilizzando i risultati delle prove di laboratorio, unitamente alle informazioni provenienti dai sondaggi e dalle prove penetrometriche (CPT/CPTU), è stato possibile innanzitutto identificare le unità stratigrafiche presenti nel sistema arginale e determinarne i parametri meccanici, per poi procedere alla costruzione del modello geotecnico di riferimento per le analisi di stabilità. Pertanto la tesi si pone come obiettivi principali la messa a punto di un modello geotecnico affidabile dell'argine, la verifica della stabilità globale delle scarpate lato fiume e l'individuazione dei fattori scatenanti i fenomeni di scorrimento osservati, nonché la scelta di possibili interventi per la messa in sicurezza delle sponde, valutandone i benefici in termini del fattore di sicurezza ed i relativi costi. L'insieme dei risultati conseguiti in questo studio permette di fornire utili indicazioni a coloro che sono preposti alla manutenzione e messa in sicurezza delle strutture arginali del fiume Po.
Resumo:
Alla base delle analisi di radioprotezione di una azienda sanitaria si potrebbero considerare quattro settori da cui partire: le attività svolte che presentano un rischio dal punto di vista radiologico, gli apparecchi radiogeni, i locali all'interno del quale si svolgono le attività e infine i lavoratori, che devono essere classificati o meno in base ai valori di dose efficace a cui vengono esposti. In questo elaborato si vuole presentare un nuovo modello informatico di gestione, definito activity-oriented perché volto a portare le attività al centro dell'indagine di radioprotezione così da poter strutturare di conseguenza anche i dati relativi ad apparecchiature, locali e lavoratori, in modo da avere un visione completa dell’azienda così da facilitarne il monitoraggio. Tale modello è stato creato negli ultimi anni nell’azienda USL di Forlì e contemporaneamente è stato sviluppato un software che permette di automatizzare parte dei lavori di competenza dell’Esperto Qualificato. Applicando tali strumenti sull’Azienda USL della Romagna Area Territoriale di Ravenna è stato possibile passare da una gestione cartacea, priva di modellizzazione informatica, ad una gestione basata sul concetto di attività a rischio radiologico. Verranno evidenziati i passaggi che sono stati necessari per un corretto adattamento dello schema e inoltre verranno presentati i risultati ottenuti. In conclusione si vuole evidenziare come il modello descritto permetta una consistente riduzione del tempo necessario per svolgere le attività di competenza dell'Esperto Qualificato, riducendo inoltre gli errori commessi. Si ha così un guadagno di tempo impiegabile per formare i lavoratori classificati sui rischi che ci sono lavorando con radiazioni ionizzanti e quali possono essere le opportune precauzioni da utilizzare.
Resumo:
La tesi descrive PARLEN, uno strumento che permette l'analisi di articoli, l'estrazione e il riconoscimento delle entità - ad esempio persone, istituzioni, città - e il collegamento delle stesse a risorse online. PARLEN è inoltre in grado di pubblicare i dati estratti in un dataset basato su principi e tecnologie del Semantic Web.
Resumo:
Sono studiati nel dettaglio, sia dal punto di vista matematico che con un certo inquadramento storico, i capitoli quinto e sesto del volume ''Le operazioni distributive e le loro applicazioni all'analisi'' di Salvatore Pincherle. La tesi si inserisce in un progetto più ampio di studio ed è già stata preceduta da un'altra tesi magistrale dedicata ai primi capitoli del libro.
Resumo:
Il lavoro di tesi ha l'obiettivo di fornire un quadro conoscitivo preliminare della Conoide Enza, importante corpo idrico sotterraneo situato nella provincia di Reggio-Emilia. Unitamente viene data una sua rappresentazione cartografica digitale attraverso software GIS, utile a geo-referenziare l'acquifero. Tale lavoro permette di convogliare ed archiviare in un sistema informativo territoriale le osservazioni e i dati necessari a successive indagini quantitative sulla Conoide. In tal senso, viene fornito un esempio di modellazione di flusso nell'acquifero tramite software MODFLOW, così da mostrare l'analisi di uno scenario di prelievo a partire dai dati forniti. In particolare, è simulato il comportamento dell'acquifero in presenza di un pozzo di estrazione, valutando il conseguente effetto indotto sulla piezometria.
Resumo:
La disciplina del Risk Management assume recentemente un significato ed un peso crescenti nel panorama delle organizzazioni pubbliche e private. Nel campo delle costruzioni pubbliche, in particolare, l’attuazione di processi strutturati di Gestione del Rischio potrebbe portare ad un efficientamento significativo del processo di costruzione e gestione. Obiettivo di questa tesi è verificare in che modo i risultati di un’applicazione strutturata di un processo di Gestione del Rischio possono essere impiegati dal gruppo di management per perseguire scelte più consapevoli, precise e circostanziate rispetto ai metodi tradizionali di gestione del processo. L’analisi parte da uno studio comparativo dei metodi e delle norme tecniche di Risk Management proposte in ambito internazionale. I risultati ottenuti vengono poi applicati al caso studio relativo al progetto di insediamento del Tecnopolo di Bologna presso l’area nota come Ex-Manifattura Tabacchi. L’applicazione delle tecniche al caso di studio è strutturata come una esecuzione completa del processo di Valutazione del Rischio. La fase di Identificazione viene svolta tramite un’analisi della letteratura, la sottoposizione al giudizio degli esperti, e si conclude con una categorizzazione dei rischi mediante Risk Breakdown Structure. La fase di Quantificazione del Rischio è attuata tramite una prima fase di analisi qualitativa con la somministrazione di un questionario on-line ad una platea di soggetti competenti; seguita da un’analisi quantitativa svolta con il software “RiskyProject®” per realizzare una analisi di Montecarlo ed analisi di sensitività. Al termine vengono esaminate alcune possibili misure di trattamento specifiche per un rischio definito prioritario. I risultati proposti mostrano come sia possibile ottenere in fase preliminare una descrizione consapevole delle incertezze del progetto, e che tale consapevolezza può essere utilizzata con lo scopo di migliorare la qualità e l’efficacia dell’intero processo.
Resumo:
L'elaborato ha come oggetto lo Spanglish, lingua ibrida nata in seguito al bilinguismo negli Stati Uniti. L'elaborato, in particolare, propone un'analisi di tale fenomeno a partire dalle origini fino a giungere alla discussa traduzione del Don Quijote de La Mancha per mano di Ilan Stavans.
Resumo:
Nell’ambito delle telecomunicazioni risulta di notevole rilievo la tecnologia ad onde convogliate, definita Power-Line Communication (PLC), che permette la trasmissione di dati sfruttando la rete elettrica come mezzo di trasmissione. Essa rappresenta una delle tecnologie promettenti per quanto concerne la fornitura di servizi come l’accesso ad Internet, alla rete telefonica e al telecontrollo di apparecchi sempre più sofisticati. Al fine di rendere possibile sia la trasmissione di potenza (alla frequenza di 50 Hz per l’Italia) che di altri segnali dati (su bande a frequenza maggiore) saranno necessarie tecniche di modulazione avanzata, che però non rappresentano un argomento trattato a fondo in questa tesi. Lo sviluppo tecnologico degli ultimi anni ha permesso una notevole diffusione delle PLC soprattutto in applicazioni domestiche, grazie ai prezzi molto contenuti in parallelo alle ottime prestazioni, soprattutto nell’automazione. Obbiettivo dell’elaborato risulta la rilevazione della risposta impulsiva in ambienti Power-Line di tipo Narrowband (a banda stretta), immettendo in rete sequenze di tipo casuale o pseudo-casuale, queste ultime definite Pseudo-Noise (PN); esse infatti hanno particolari proprietà che renderanno possibile il raggiungimento dello scopo prefissato. Lo strumento fondamentale per le misurazioni sul campo effettuate risulta l’Analog Discovery (Digilent ne è il produttore), utilizzato non solo come generatore di forme d’onda in ingresso ma anche come oscilloscopio per l’analisi del segnale ricevuto.
Resumo:
Nel corso degli ultimi decenni si è assistito a un aumento di malattie e disturbi che colpiscono il sistema nervoso,specialmente il cervello. Si è dunque resa necessaria la ricerca e l'analisi di tecniche di stimolazione transcranica a fini sperimentali, clinici e di diagnosi. Tra queste spiccano per la loro versatilità la TMS e la tDCS, le quali hanno già trovato e possono ancora trovare la loro applicazione in numerosi ambiti anche molto differenti tra loro, tra cui quello motorio, verbale, della memoria o per disturbi neurodegenerativi. L'analisi approfondita delle loro applicazioni può non solo portare a meglio comprendere i limiti che le due tecniche hanno al giorno d'oggi e quindi portare a un miglioramento delle stesse, ma anche ad una comprensione più accurata del funzionamento del sistema nervoso, tutt'ora ancora alquanto oscuro nella sua complessità. Infine, confrontando le due tecniche si può meglio definire anche quali possano essere gli ambiti in cui l'una e l'altra sono più vantaggiose o possano dare contributi più incisivi.
Resumo:
La tesi descrive la mia esperienza di tirocinio presso l'azienda Marchesini Group, inserito all'interno dell'Ufficio Validazione Impianti. Dopo un'introduzione sul tema della qualità e dell'affidabilità, della loro evoluzione e della loro rilevanza nel mercato odierno, il cuore dell'elaborato descrive il progetto condotto all'interno dell'azienda. In particolare, la descrizione di uno strumento di standardizzazione per la compilazione di documenti di validazione. Infine è presente un modello di simulazione (realizzato con il software Arena Simulation) per l'analisi di congestioni e colli di bottiglia del macro processo di validazione. Lo stesso modello è stato poi utilizzato per lo studio del sistema dopo l'introduzione dello strumento standard.
Resumo:
Nell'ultimo trentennio, sul piano economico-industriale, è aumentata l’importanza dei cosiddetti asset intangibili, cioè quelle attività che non si vedono, non si toccano, difficilmente si riescono a misurare e che fanno parte del patrimonio intellettuale aziendale. Infatti questa proprietà, che inizialmente era vista solo come possibilità per un maggiore prestigio, una maggiore efficienza organizzativa, oggi è considerata per quello che è, cioè fonte di vantaggi strategici e strumento che offre la possibilità, a chi investe sull'innovazione e la ricerca, di sfruttare economicamente i risultati. In particolare, la tesi analizza i contratti di licenza di marchi e brevetti nel settore Machinery and Equipment. Si basa sull'analisi di un dataset di 95 contratti di licenza al fine di comprendere le determinanti dei termini economici (tasso di royalty).
Resumo:
L’oggetto di studio di questa tesi consiste nel primo approccio di sperimentazione dell’utilizzo di tecnologia UAV (Unmanned aerial vehicle, cioè velivoli senza pilota), per fotogrammetria ai fini di una valutazione di eventuali danni ad edifici, a seguito di un evento straordinario o disastri naturali. Uno degli aspetti più onerosi in termini di tempo e costi di esecuzione, nel processamento di voli fotogrammetrici per usi cartografici è dovuto alla necessità di un appoggio topografico a terra. Nella presente tesi è stata valutata la possibilità di effettuare un posizionamento di precisione della camera da presa al momento dello scatto, in modo da ridurre significativamente la necessità di Punti Fotografici di Appoggio (PFA) rilevati per via topografica a terra. In particolare si è voluto sperimentare l’impiego di stazioni totali robotiche per l’inseguimento e il posizionamento del velivolo durante le acquisizioni, in modo da simulare la presenza di ricevitori geodetici RTK installati a bordo. Al tempo stesso tale metodologia permetterebbe il posizionamento di precisione del velivolo anche in condizioni “indoor” o di scarsa ricezione dei segnali satellitari, quali ad esempio quelle riscontrabili nelle attività di volo entro canyon urbani o nel rilievo dei prospetti di edifici. Nell’ambito della tesi è stata, quindi, effettuata una analisi di un blocco fotogrammetrico in presenza del posizionamento di precisione della camera all’istante dello scatto, confrontando poi i risultati ottenuti con quelli desumibili attraverso un tradizionale appoggio topografico a terra. È stato quindi possibile valutare le potenzialità del rilievo fotogrammetrico da drone in condizioni vicine a quelle tipiche della fotogrammetria diretta. In questo caso non sono stati misurati però gli angoli di assetto della camera all’istante dello scatto, ma si è proceduto alla loro stima per via fotogrammetrica.
Resumo:
In questo elaborato sono state analizzate le distribuzioni dimensionali degli aerosol misurate nella stazione meteorologica di San Pietro Capofiume relative al periodo compreso tra marzo 2002 e ottobre 2013, focalizzando l’attenzione sugli eventi di nucleazione, la crescita delle nuove particelle e la correlazione del fenomeno con i parametri meteorologici del vento, della pioggia, della temperatura e con i dati relativi alla radiazione solare. Le osservazioni del particolato sono state effettuate con un sistema DMPS (Differential Mobility Particle Sizer), che rileva particelle di diametro compreso tra 3 e 660 nm. Si è notato che la formazione delle particelle di diametro compreso tra 3 e 10 nm e 10 e 20 nm dipende fortemente dalla radiazione solare: ad un massimo della radiazione, corrisponde mediamente un aumento della concentrazione delle particelle. Dal confronto delle temperature medie mensili (massime e minime) con la concentrazione delle particelle di diametro compreso tra 100 e 300 nm e 300 e 700 nm, si è visto che all’aumento delle temperature corrisponde una diminuzione della concentrazione delle particelle. Per quanto riguarda il confronto della concentrazione delle particelle con la direzione e la velocità del vento, non si è notata alcuna relazione. L’unico particolare che si è notato è che durante la primavera e l’estate si nota un aumento della concentrazione delle particelle con diametro compreso tra 3 e 10 nm associate a venti provenienti dai quadranti orientali. Poiché le precipitazioni rimuovono gli aerosol dall’atmosfera causando repentini cali nella loro concentrazione, per verificare che i risultati ottenuti non fossero alterati da questi eventi, abbiamo ripetuto tutte le analisi di correlazione con le variabili meteorologiche escludendo i giorni con precipitazione superiore o uguale ad 1 mm. Tuttavia i risultati sono rimasti invariati.
Resumo:
Lo sviluppo sistematico di modelli subject-specific computerizzati per l’analisi di trattamenti personalizzati è attualmente una realtà. Infatti di recente sono state sviluppate molte tecnologie per la creazione di modelli virtuali ad elementi finiti, che ricreano accuratamente le geometrie specifiche del soggetto e tutte le proprietà fondamentali per ricreare le capacità motorie, basandosi su analisi d’immagine quantitative. Tuttavia, per determinare le forze agenti sul sistema, necessitiamo di una intera analisi di cammino, solitamente in combinazione con uno studio di simulazione di dinamica inversa. In questo elaborato, mi propongo di illustrare i procedimenti per creare un modello subject-specific partendo da dati di imaging (da tomografie computerizzate) di un paziente reale affetto da displasia congenita dell’anca, e gli strumenti che ci permettono di effettuare le simulazioni del modello, al fine di ottenere informazioni quantitative circa le grandezze che governano la dinamica del cammino del paziente. Il corpi rigidi del modello scheletrico saranno costruiti mediante la tecnica della segmentazione 3D, e verranno utilizzati per costruire un sistema articolato dotato di attuatori muscolo-tendinei e giunti articolari a due o tre gradi di libertà. Per conseguire questo obiettivo si farà uso del software, “NMSBuilder”, per poi inserirlo in un programma di simulazione di dinamica del movimento, “OpenSim”, che ci permetterà di calcolare forze muscolari, forze di contatto e momenti articolari del modello. Questi risultati saranno di fondamentale importanza per studiare riabilitazioni ad hoc per pazienti affetti da DCA che devono essere sottoposti ad artroprotesi totale. Lo scopo di questo studio sarà anche quello di analizzare la sensibilità delle previsioni dei modelli specifici durante la deambulazione tenendo conto delle incertezze nell'identificazione delle posizioni dei body-landmarks, della massima tensione muscolare e della geometria muscolo-tendinea.