1000 resultados para Localizzazione Stima Angolo di Arrivo Elaborazione Audio MATLAB Simulazione
Resumo:
Il presente elaborato analizza il problema dell'intrusione salina e valuta l'influenza dei parametri idrologici e idrogeologici sulle dinamiche del processo mediate simulazioni Monte Carlo. A scopo esemplificativo, l’intrusione salina viene studiata in condizioni stazionarie e nell’ipotesi di interfaccia netta. La tecnica di simulazione viene descritta a partire dai concetti statistici di base che includono la definizione delle distribuzioni di probabilità scelte per descrviere il comportamento dei parametri del modello concettuale e la procedura di campionamento di tali distribuzioni. Un codice in Matlab è stato realizzato per l’applicazione ad un semplice caso studio.
Resumo:
Il sistema muscolare scheletrico è l'insieme di organi adibiti al movimento, il quale è permesso dalla contrazione muscolare. L’elettromiografia è un esame di tipo funzionale che analizza il funzionamento di uno o più muscoli attraverso i potenziali elettrici che si sviluppano in esso durante la contrazione. Patologie del sistema muscolare o del sistema nervoso possono compromettere il comportamento fisiologico che il corpo richiede e l’elettromiografia può aiutare nella diagnosi. Oltre al campo medico, l’elettromiografia può dimostrarsi utile in ambito sportivo, valutando come il sistema muscolare evolve nella sua risposta quando sottoposto a cicli di lavoro o di recupero. Obiettivo dell’elaborato è descrivere e comprendere il principio di funzionamento dell’indagine elettromiografica, analizzando lo strumento elettromiografo e il segnale elettromiografico, e come può essere applicata in ambito sportivo. È fornita una breve descrizione del sistema muscolare, dal punto di vista strutturale e meccanico, e del sistema nervoso, dal punto di vista elettrico. Tali principi permettono di comprendere come la forza muscolare viene prodotta e come il segnale mioelettrico si propaga. Dell’elettromiografo sono presentati gli elementi utilizzati per la registrazione e l’elaborazione del segnale. Per quanto riguarda il segnale, invece, vengono esposti i metodi di acquisizione, interpretazione ed elaborazione digitale dello stesso. In un’ultima parte si confrontano alcune specifiche tecniche di elettromiografi commerciali in funzione della specifica applicazione. È infine affrontato l’utilizzo dell’elettromiografia in ambito sportivo, esponendo alcuni articoli riguardanti il nuoto e il rugby. Nel caso del nuoto è esaminato come alcuni muscoli reagiscono lavorando ad intensità diverse e tra atleti di livello agonistico differente. Invece, nel caso del rugby viene fatto un confronto su come alcuni muscoli si attivano in un soggetto sano e in un soggetto patologico.
Resumo:
I fenomeni di contaminazione antropica da mercurio sono sempre più diffusi e preoccupanti, tanto da spingere all’ attivazione di politiche nazionali ed internazionali atte a ridurre o almeno “contenere” i rischi legati a questo metallo tossico. Con quest’obiettivo è prioritaria la necessità di determinare la concentrazione del metallo in maniera veloce, economica ed efficiente. Il seguente report intende fornire informazioni utili nell’utilizzo dello spettrofotometro DMA-80 nell’analisi di Hg in varie matrici ambientali. Lo strumento è stato acquistato dall’IAMC-CNR di Capo Granitola per rispondere alle esigenze progettuali del progetto “Dinamica dei processi di evasione e deposizione del mercurio nell’area industrializzata della Rada di Augusta e definizioni delle mappe di rischio sanitario per le popolazioni residenti” (prot.n°0000466 18/2/2011) finanziato dall’Assessorato alla Salute della Regione Sicilia con l’obbiettivo di verificare il potenziale impatto del mercurio, derivato dalle emissioni dei reflui non trattati dell’impianto di cloro-soda SYNDIAL Priolo-Gargallo sulle popolazioni residenti nell’aria fortemente industrializzata di Augusta-Melilli (Siracusa).
Resumo:
Il Programma Nazionale Italiano 2011-2013 di Raccolta Dati nel settore della pesca prevede, inter alia, la stima di cinque indicatori dell’impatto della pesca nell’ecosistema marino, in accordo con quanto riportato nell’appendice XIII della Decisione della Commissione del 6 novembre 2008. I criteri per la loro selezione ai fini della valutazione dell’impatto dovuto alla pesca sono la loro facilità di calcolo e la capacità di discriminarne gli effetti
Resumo:
Il Programma Nazionale Italiano 2014-2016 di Raccolta Dati nel settore della pesca prevede, inter alia, la stima di cinque indicatori dell’impatto della pesca nell’ecosistema marino, in accordo con quanto riportato nell’appendice XIII della Decisione della Commissione del 6 novembre 2008. I criteri per la loro selezione ai fini della valutazione dell’impatto dovuto alla pesca sono la loro facilità di calcolo e la capacità di discriminarne gli effetti.
Resumo:
Parlare di KeyCrime significa rapportarsi con un software che si fonda prioritariamente su di un metodo scientifico che fa proprio il ragionamento conclusivo (conclusive reasoning), applicato al decison making , pertanto all’intelligence investigativa e alla predictive policing. Potremmo pensare a KeyCrime come un paradigma operativo che si pone in sinergia tra la filosofia, il cognitivismo giuridico e le scienze applicate (Romeo F., 2006). Quando analisi e decision making trovano in un unico contesto il terreno fertile dove svilupparsi, ma ancor più, creare presupposti di ragionamento, ecco che da queste è facile comprendere da quale altra condizione sono nate, attivate e soprattutto utilizzate ai fini di un risultato: questa non è altro che “l’osservazione”; se ben fatta, profonda e scientifica offre una sistematica quanto utile predisposizione alle indagini, specialmente di carattere preventivo per l’anticrimine e la sicurezza.
Resumo:
Questo lavoro è incentrato sull'analisi e la simulazione di un ciclo Rankine a fluido organico (ORC) per la produzione di energia da calore a bassa entalpia. Il lavoro è stato svolto in collaborazione con l'università di Gent, in Belgio, in particolare grazie al Prof. De Peape e all' Ing. Steven Lecompte; il lavoro in Italia è stato coordinato dal Prof. De Pascale. L'obiettivo principale della tesi è stata la creazione un modello computazionale in grado di descrivere le prestazioni dell'impianto a carico parziale. Ogni elemento dell'impianto è stato analizzato e modellizzato secondo un approccio di simulazione originale in Matlab. I componenti ottenuti sono stati poi combinati a formare la simulazione dell'intero sistema; questa è in grado di prevedere la potenza prodotta ed il rendimento del ciclo al variare delle condizioni esterne. I risultati ottenuti dalle simulazioni sono stati poi confrontati con i dati sperimentali raccolti sull'impianto di prova dell'Università. Questo confronto dimostra un buon accordo dei risultati previsti con quelli misurati. L'errore relativo massimo ottenuto per la potenza elettrica è sotto il 7%, così come quello sul rendimento; Gli errori relativi a pressione ed entalpie sono in genere sotto il 5%. Il modello può perciò dirsi validato e rappresenta un valido strumento di analisi per comprendere la risposta ai carichi parziali anche al di fuori del range di calibrazione. Il modello è stato infine utilizzato per costruire delle mappe del carico parziale e analizzare l'influenza delle variabili del ciclo. Ulteriori applicazioni delle mappe prodotte sono proposte a fine del lavoro.
Resumo:
In questa tesi è stato affrontato lo studio della valutazione delle proprietà meccaniche del calcestruzzo negli edifici esistenti, ponendo attenzione alle normative che regolano questa procedura, alle prove distruttive e non, che vengono eseguite in sito e in laboratorio, fino all'elaborazione dei risultati al fine di ottenere il valore desiderato della resistenza a compressione del cls. In particolare sono state affrontate le prove a compressione, trazione indiretta e di determinazione del modulo elastico che si eseguono in laboratorio, i carotaggi, la carbonatazione, la prova sclerometrica, ultrasonica, di aderenza, di estrazione e penetrazione eseguite in sito. Per la valutazione del calcestruzzo è stato introdotto il funzionamento delle curve di correlazione, la loro costruzione e valutazione, e le varie definizioni del calcestruzzo definite dalla NTC del 2008, dalle Linee Guida C.S. LL.PP. e dal metodo Holos.
Resumo:
L'obiettivo di questo lavoro di tesi è realizzare un modello, prima statico poi dinamico, dei componenti: imbocco e gruppo compressore, del turboalbero Allison 250 C18 sottoposto alla tecnologia del fogging. I dati sperimentali utilizzati provengono da prove sperimentali svolte da un altro tesista nel laboratorio di Propulsione e macchine della Scuola di Ingegneria e Architettura di Forlì. Grazie al modello statico, realizzato con il software MATLAB®, sono state create le principali mappe prestazionali dei singoli componenti. Queste ultime sono state poi implementate all'interno del modello dinamico realizzato con il software Simulink. Attraverso il modello dinamico, siamo stati in grado di osservare, grazie ad una struttura modulare a blocchi, l'andamento delle grandezze anche in regime transitorio, e di cambiare i parametri di inizializzazione in maniera molto rapida. Infine i dati ottenuti sono stati confrontati con i dati sperimentali e sono state effettuate valutazioni sull'utilità o meno del fogging. Entrambe le conclusioni hanno dato buoni risultati.
Resumo:
L'obbiettivo principale di questa tesi è la creazione di un particolare strumento capace di calcolare, dati in input le coordinate geografiche in latitudine e longitudine dei vari gates di passaggio del velivolo e delle caratteristiche principali di quest'ultimo, la traiettoria ottimale, ovvero la più veloce, restando pur sempre nei limiti strutturali e in quelli stabiliti dal regolamento, oltre che ad una serie di valori utili per effettuare tale percorso, quali la variazione di potenza, di coefficiente di portanza, di velocità, ecc. Dopo una prima fase di raccolta delle informazioni (regolamento della competizione, dati tecnici dei velivoli usati, del motore e dell'elica) ne è seguita una seconda in cui, partendo dall'analisi dei risultati ottenuti da un precedente tool di calcolo in Excel, si è provveduto a scriverne uno nuovo operante in ambiente MatLab.
Resumo:
Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.
Resumo:
La diffusione di smartphone e dispostivi mobili a cui si è assistito nell’ultima decade ha portato con sé lo sviluppo di nuovi sistemi e tecnologie basate sulla localizzazione. Questi sistemi vengono chiamati Location Based Systems (LBS) ed il loro successo è stato reso possibile dai sensori come GPS, antenna WiFi e accelerometro che hanno permesso agli sviluppatori di creare contenuti e servizi basati sulla posizione dell’utente. Una delle tecnologie su cui si basano i LBS è chiamata Geofencing e consiste nella creazione di aree virtuali (dette geofence) per delimitare luoghi di interesse (Point of Interests) e notificare l’utente quando entra, esce o si trova nelle vicinanze di una delle aree delimitate. Questa caratteristica viene utilizzata soprattutto per realizzare applicazioni che ricordano all’utente di svolgere delle azioni, per esempio un’app di promemoria che ricorda all’utente di comprare il latte quando si trova vicino ad un supermercato. Dal punto di vista economico, uno degli utilizzi piu` promettenti `e il co- siddetto Context Aware Advertising: i possessori di dispositivi mobili che si trovano a camminare nelle vicinanze di un negozio o un centro commer- ciale possono essere considerati possibili clienti e ricevere delle notifiche con pubblicit`a o questionari. Nel seguente lavoro verrà analizzato nel dettaglio cos’è il Geofencing, le sue applicazioni e le tecnologie sulla quale si basa. Verranno presi in considerazione alcuni problemi relativi all’utilizzo delle tecnologie di posizionamento, con particolare attenzione ai consumi di batteria. Verrà inoltre descritta la progettazione e l’implementazione di una piattaforma che permette ai possessori di attività commerciali di creare e gestire dei POI nonché di monitorare gli spostamenti dei possibili clienti. Dopo aver installato l’applicazione mobile sul proprio smartphone, i clienti potranno ricevere notifiche una volta oltrepassati i confini di un geofence.
Resumo:
Il presente elaborato, mediante una panoramica sull’intero processo di recupero della cartografia storica con le moderne tecniche geomatiche (con particolare attenzione rivolta alla fase di elaborazione in ambiente digitale), e l’applicazione ad un caso di studio (l’ Ichnoscenografia di Bologna del 1702) vuole mostrare l’importanza dell’utilizzo di tali tecniche, unitamente alla loro versatilità per la salvaguardia, lo studio e la diffusione del patrimonio cartografico storico. L’attività principale consiste nella creazione di un modello 3D georeferenziato della Bologna del 1702, a partire dalla carta del de’ Gnudi, e della sua successiva rappresentazione mediante modalità di Realtà Virtuale. L’immediatezza della comunicazione con varie forme di rappresentazione consente non solo di apprezzare e scoprire in modo nuovo una carta antica, ma anche di effettuare analisi più specifiche, ad esempio in merito all’evoluzione del tessuto storico della città, oppure studi sui metodi di rappresentazione che venivano utilizzati all’epoca della redazione della carta, completamente differenti dagli attuali, soprattutto in termini di precisione. La parte finale della trattazione esamina la possibilità per il fruitore della ricerca di interrogare un database multimediale sulla città e di immergersi in modo virtuale in ambientazioni non più esistenti.
Resumo:
La geolocalizzazione è l’insieme di metodi e tecniche che permette di mettere in relazione una certa informazione con un punto specifico della superficie terrestre. Il punto è generalmente indicato in maniera assoluta tramite coordinate latitudinali e longitudinali, oppure in maniera relativa ad altri punti noti. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni in tempo reale relative alla posizione, direzione e velocità del soggetto analizzato, e la conseguente analisi di percorso e comportamento. Tutto questo rende possibile la realizzazione di un sistema di localizzazione efficiente. La geolocalizzazione è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In particolare è di interesse di ricerca e in ambito di commercio trovare un sistema di localizzazione adeguato non solo per l’esterno ma anche per situazioni indoor. In questa tesi verranno analizzati i vari metodi di posizionamento fino ad oggi studiati, sia indoor che outdoor per arrivare a proporre un sistema di localizzazione indoor basato su geomagnetismo dell’ambiente. Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Vedremo quindi nello specifico quali sono gli ultimi studi e tecnologie per un sistema di localizzazione indoor, concentrandosi sull’analisi dei vantaggi offerti da nuovi dispositivi con gli smartphones. Infine verrà descritto nel dettaglio il lavoro effettuato per la realizzazione di un prototipo di sistema di localizzazione indoor basato su geomagnetismo in sede aziendale GetConnected, dove si è svolta l’attività di tesi, e presso un grosso centro commerciale come caso d’uso pratico.
Resumo:
Il presente lavoro di tesi vuole focalizzare l’attenzione sull’impiego del GNL per la propulsione navale, analizzando aspetti legati alla sicurezza delle infrastrutture necessarie a tale scopo. Si sono considerati due diversi casi di studio: il primo riguarda un deposito costiero attrezzato per poter svolgere attività di rifornimento per imbarcazioni, mentre il secondo caso interessa una nave da trasporto passeggeri alimentata a GNL. È stata condotta un’analisi del rischio: l’identificazione dei pericoli ha seguito le linee guida proposte dalla metodologia MIMAH, oltre a sfruttare risultati di analisi HAZOP e HAZID. La stima delle frequenze di rilascio è stata effettuata con la tecnica della parts count, sulla base di valori ottenuti da database affidabilistici. La valutazione delle conseguenze è stata realizzata con il supporto del software DNV PHAST, utilizzando come riferimento i valori soglia proposti dal D.M. 9/5/2001. È stata infine impostata una modellazione fluidodinamica con lo scopo di valutare la possibilità di rottura catastrofica dei serbatoi di stoccaggio dovuta ad un’eccessiva pressurizzazione causata da una situazione di incendio esterno. Le simulazioni sono state condotte con il supporto del software CFD ANSYS® FLUENT® 17.2. Si è modellata una situazione di completo avvolgimento dalle fiamme considerando due geometrie di serbatoio diverse, nel caso di materiale isolante integro o danneggiato. I risultati ottenuti dall’analisi del rischio mostrano come i danni derivanti da un ipotetico scenario incidentale possano avere conseguenze anche significative, ma con valori di frequenze di accadimento tipici di situazioni rare. Lo studio fluidodinamico del comportamento di serbatoi di stoccaggio avvolti dalle fiamme ha evidenziato come questi siano capaci di resistere a condizioni gravose di incendio per tempi prolungati senza che si abbia una pressurizzazione tale da destare preoccupazione per l’integrità strutturale delle apparecchiature.