934 resultados para analisi di Fourier, mercati elettrici.
Resumo:
Alla base delle analisi di radioprotezione di una azienda sanitaria si potrebbero considerare quattro settori da cui partire: le attività svolte che presentano un rischio dal punto di vista radiologico, gli apparecchi radiogeni, i locali all'interno del quale si svolgono le attività e infine i lavoratori, che devono essere classificati o meno in base ai valori di dose efficace a cui vengono esposti. In questo elaborato si vuole presentare un nuovo modello informatico di gestione, definito activity-oriented perché volto a portare le attività al centro dell'indagine di radioprotezione così da poter strutturare di conseguenza anche i dati relativi ad apparecchiature, locali e lavoratori, in modo da avere un visione completa dell’azienda così da facilitarne il monitoraggio. Tale modello è stato creato negli ultimi anni nell’azienda USL di Forlì e contemporaneamente è stato sviluppato un software che permette di automatizzare parte dei lavori di competenza dell’Esperto Qualificato. Applicando tali strumenti sull’Azienda USL della Romagna Area Territoriale di Ravenna è stato possibile passare da una gestione cartacea, priva di modellizzazione informatica, ad una gestione basata sul concetto di attività a rischio radiologico. Verranno evidenziati i passaggi che sono stati necessari per un corretto adattamento dello schema e inoltre verranno presentati i risultati ottenuti. In conclusione si vuole evidenziare come il modello descritto permetta una consistente riduzione del tempo necessario per svolgere le attività di competenza dell'Esperto Qualificato, riducendo inoltre gli errori commessi. Si ha così un guadagno di tempo impiegabile per formare i lavoratori classificati sui rischi che ci sono lavorando con radiazioni ionizzanti e quali possono essere le opportune precauzioni da utilizzare.
Resumo:
Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.
Resumo:
In Italia molti edifici sono stati costruiti senza tenere in considerazione l'azione sismica. La necessità di adeguare tali edifici in accordo con la normativa italiana vigente è stato il motivo scatenante di questa ricerca. Per l'adeguamento sismico, vengono qui proposti differenti approcci in base al tipo di struttura e, in particolare, in base alla loro deformabilità. Per le strutture flessibili come le scaffalature di acciaio adibite alla stagionatura del Parmigiano Reggiano, sono stati utilizzati dispositivi passivi di dissipazione energetica. Sono state condotte analisi di sensitività per determinare il coefficiente di smorzamento in grado di minimizzare lo stato tensionale nelle sezioni di interesse. I risultati delle analisi mostrano l'efficacia delle soluzioni proposte e potrebbero rappresentare un punto di partenza per la definizione di possibili contromisure standar per l'adeguamento sismico. Per le strutture rigide, come i ponti in muratura, sono stati definiti alcuni criteri per la modellazione e la verifica delle sezioni di interesse, utilizzando modelli semplificati ma dall'efficacia comprovata come termine di paragone.
Resumo:
La tesi descrive PARLEN, uno strumento che permette l'analisi di articoli, l'estrazione e il riconoscimento delle entità - ad esempio persone, istituzioni, città - e il collegamento delle stesse a risorse online. PARLEN è inoltre in grado di pubblicare i dati estratti in un dataset basato su principi e tecnologie del Semantic Web.
Resumo:
Nell’ultima decade abbiamo assistito alla transizione di buona parte dei business da offline ad online. Istantaneamente grazie al nuovo rapporto tra azienda e cliente fornito dalla tecnologia, molti dei metodi di marketing potevano essere rivoluzionati. Il web ci ha abilitato all’analisi degli utenti e delle loro opinioni ad ampio spettro. Capire con assoluta precisione il tasso di conversione in acquisti degli utenti fornito dalle piattaforme pubblicitarie e seguirne il loro comportamento su larga scala sul web, operazione sempre stata estremamente difficile da fare nel mondo reale. Per svolgere queste operazioni sono disponibili diverse applicazioni commerciali, che comportano un costo che può essere notevole da sostenere per le aziende. Nel corso della seguente tesi si punta a fornire una analisi di una piattaforma open source per la raccolta dei dati dal web in un database strutturato
Resumo:
Sono studiati nel dettaglio, sia dal punto di vista matematico che con un certo inquadramento storico, i capitoli quinto e sesto del volume ''Le operazioni distributive e le loro applicazioni all'analisi'' di Salvatore Pincherle. La tesi si inserisce in un progetto più ampio di studio ed è già stata preceduta da un'altra tesi magistrale dedicata ai primi capitoli del libro.
Resumo:
La misurazione del gradiente pressorio venoso (HVPG) viene utilizzata per diagnosticare la gravità della malattia del fegato ma si tratta di una pratica invasiva e che non può essere effettuata in tutti i pazienti. Per questo motivo sono state studiate nuove metodiche per riuscire ad analizzare la cirrosi, una tra le quali l’indagine ecografica. Un progetto in fase di svolgimento (progetto CLEVER) è stato avviato per riuscire a sviluppare, validare e trasferire nella pratica clinica un nuovo sistema basato sull'analisi di immagini ecografiche con mezzo di contrasto al fine di valutare la gravità della degenerazione della rete vascolare causata dalla cirrosi. L'obiettivo principale della ricerca è quello di sviluppare uno strumento completamente automatico per l'analisi in tempo reale della rete vascolare del fegato in grado di valutare la connettività vascolare e quantificare il grado di squilibrio della rete.
Resumo:
Il lavoro di tesi ha l'obiettivo di fornire un quadro conoscitivo preliminare della Conoide Enza, importante corpo idrico sotterraneo situato nella provincia di Reggio-Emilia. Unitamente viene data una sua rappresentazione cartografica digitale attraverso software GIS, utile a geo-referenziare l'acquifero. Tale lavoro permette di convogliare ed archiviare in un sistema informativo territoriale le osservazioni e i dati necessari a successive indagini quantitative sulla Conoide. In tal senso, viene fornito un esempio di modellazione di flusso nell'acquifero tramite software MODFLOW, così da mostrare l'analisi di uno scenario di prelievo a partire dai dati forniti. In particolare, è simulato il comportamento dell'acquifero in presenza di un pozzo di estrazione, valutando il conseguente effetto indotto sulla piezometria.
Resumo:
La disciplina del Risk Management assume recentemente un significato ed un peso crescenti nel panorama delle organizzazioni pubbliche e private. Nel campo delle costruzioni pubbliche, in particolare, l’attuazione di processi strutturati di Gestione del Rischio potrebbe portare ad un efficientamento significativo del processo di costruzione e gestione. Obiettivo di questa tesi è verificare in che modo i risultati di un’applicazione strutturata di un processo di Gestione del Rischio possono essere impiegati dal gruppo di management per perseguire scelte più consapevoli, precise e circostanziate rispetto ai metodi tradizionali di gestione del processo. L’analisi parte da uno studio comparativo dei metodi e delle norme tecniche di Risk Management proposte in ambito internazionale. I risultati ottenuti vengono poi applicati al caso studio relativo al progetto di insediamento del Tecnopolo di Bologna presso l’area nota come Ex-Manifattura Tabacchi. L’applicazione delle tecniche al caso di studio è strutturata come una esecuzione completa del processo di Valutazione del Rischio. La fase di Identificazione viene svolta tramite un’analisi della letteratura, la sottoposizione al giudizio degli esperti, e si conclude con una categorizzazione dei rischi mediante Risk Breakdown Structure. La fase di Quantificazione del Rischio è attuata tramite una prima fase di analisi qualitativa con la somministrazione di un questionario on-line ad una platea di soggetti competenti; seguita da un’analisi quantitativa svolta con il software “RiskyProject®” per realizzare una analisi di Montecarlo ed analisi di sensitività. Al termine vengono esaminate alcune possibili misure di trattamento specifiche per un rischio definito prioritario. I risultati proposti mostrano come sia possibile ottenere in fase preliminare una descrizione consapevole delle incertezze del progetto, e che tale consapevolezza può essere utilizzata con lo scopo di migliorare la qualità e l’efficacia dell’intero processo.
Resumo:
L'elaborato ha come oggetto lo Spanglish, lingua ibrida nata in seguito al bilinguismo negli Stati Uniti. L'elaborato, in particolare, propone un'analisi di tale fenomeno a partire dalle origini fino a giungere alla discussa traduzione del Don Quijote de La Mancha per mano di Ilan Stavans.
Resumo:
Lo scopo di questa tesi si articola in tre punti. In primo luogo, ci proponiamo di definire, sia in ambito analitico che in un contesto più algebrico e geometrico, la trasformata di Radon, di discutere la possibilità di un'eventuale generalizzazione a spazi non euclidei, e di presentare le sue proprietà più caratteristiche. In secondo luogo vogliamo dimostrare, sfruttando un collegamento di questa con la trasformata di Fourier, che la trasformata di Radon è un'applicazione iniettiva tra spazi funzionali e che è dunque invertibile, per poi descrivere uno dei possibili metodi formali di inversione. Accenneremo anche alle problematiche che insorgono nell'utilizzare l'antitrasformata di Radon in situazioni reali, e alle relative soluzioni. Infine, concluderemo la trattazione con una breve ma, ottimisticamente, delucidatrice, introduzione ad alcuni esempi di applicazione della trasformata di Radon a vari ambiti fisici e matematici.
Resumo:
Nel corso degli ultimi decenni si è assistito a un aumento di malattie e disturbi che colpiscono il sistema nervoso,specialmente il cervello. Si è dunque resa necessaria la ricerca e l'analisi di tecniche di stimolazione transcranica a fini sperimentali, clinici e di diagnosi. Tra queste spiccano per la loro versatilità la TMS e la tDCS, le quali hanno già trovato e possono ancora trovare la loro applicazione in numerosi ambiti anche molto differenti tra loro, tra cui quello motorio, verbale, della memoria o per disturbi neurodegenerativi. L'analisi approfondita delle loro applicazioni può non solo portare a meglio comprendere i limiti che le due tecniche hanno al giorno d'oggi e quindi portare a un miglioramento delle stesse, ma anche ad una comprensione più accurata del funzionamento del sistema nervoso, tutt'ora ancora alquanto oscuro nella sua complessità. Infine, confrontando le due tecniche si può meglio definire anche quali possano essere gli ambiti in cui l'una e l'altra sono più vantaggiose o possano dare contributi più incisivi.
Resumo:
La tesi descrive la mia esperienza di tirocinio presso l'azienda Marchesini Group, inserito all'interno dell'Ufficio Validazione Impianti. Dopo un'introduzione sul tema della qualità e dell'affidabilità, della loro evoluzione e della loro rilevanza nel mercato odierno, il cuore dell'elaborato descrive il progetto condotto all'interno dell'azienda. In particolare, la descrizione di uno strumento di standardizzazione per la compilazione di documenti di validazione. Infine è presente un modello di simulazione (realizzato con il software Arena Simulation) per l'analisi di congestioni e colli di bottiglia del macro processo di validazione. Lo stesso modello è stato poi utilizzato per lo studio del sistema dopo l'introduzione dello strumento standard.
Resumo:
Nell'ultimo trentennio, sul piano economico-industriale, è aumentata l’importanza dei cosiddetti asset intangibili, cioè quelle attività che non si vedono, non si toccano, difficilmente si riescono a misurare e che fanno parte del patrimonio intellettuale aziendale. Infatti questa proprietà, che inizialmente era vista solo come possibilità per un maggiore prestigio, una maggiore efficienza organizzativa, oggi è considerata per quello che è, cioè fonte di vantaggi strategici e strumento che offre la possibilità, a chi investe sull'innovazione e la ricerca, di sfruttare economicamente i risultati. In particolare, la tesi analizza i contratti di licenza di marchi e brevetti nel settore Machinery and Equipment. Si basa sull'analisi di un dataset di 95 contratti di licenza al fine di comprendere le determinanti dei termini economici (tasso di royalty).
Resumo:
L’oggetto di studio di questa tesi consiste nel primo approccio di sperimentazione dell’utilizzo di tecnologia UAV (Unmanned aerial vehicle, cioè velivoli senza pilota), per fotogrammetria ai fini di una valutazione di eventuali danni ad edifici, a seguito di un evento straordinario o disastri naturali. Uno degli aspetti più onerosi in termini di tempo e costi di esecuzione, nel processamento di voli fotogrammetrici per usi cartografici è dovuto alla necessità di un appoggio topografico a terra. Nella presente tesi è stata valutata la possibilità di effettuare un posizionamento di precisione della camera da presa al momento dello scatto, in modo da ridurre significativamente la necessità di Punti Fotografici di Appoggio (PFA) rilevati per via topografica a terra. In particolare si è voluto sperimentare l’impiego di stazioni totali robotiche per l’inseguimento e il posizionamento del velivolo durante le acquisizioni, in modo da simulare la presenza di ricevitori geodetici RTK installati a bordo. Al tempo stesso tale metodologia permetterebbe il posizionamento di precisione del velivolo anche in condizioni “indoor” o di scarsa ricezione dei segnali satellitari, quali ad esempio quelle riscontrabili nelle attività di volo entro canyon urbani o nel rilievo dei prospetti di edifici. Nell’ambito della tesi è stata, quindi, effettuata una analisi di un blocco fotogrammetrico in presenza del posizionamento di precisione della camera all’istante dello scatto, confrontando poi i risultati ottenuti con quelli desumibili attraverso un tradizionale appoggio topografico a terra. È stato quindi possibile valutare le potenzialità del rilievo fotogrammetrico da drone in condizioni vicine a quelle tipiche della fotogrammetria diretta. In questo caso non sono stati misurati però gli angoli di assetto della camera all’istante dello scatto, ma si è proceduto alla loro stima per via fotogrammetrica.