734 resultados para Identificazione di parametri, ottimizzazione, bvp, Gauss-Newton
Resumo:
Questo elaborato si pone l’obiettivo principale di formulare una metodologia volta alla misura sperimentale della risposta impulsiva di ambienti indoor in ambito acustico. Lo studio della risposta impulsiva di una stanza trova diverse applicazioni nell’ambito dell’ingegneria acustica. Essa contiene infatti informazioni sulla geometria della stanza stessa, che può essere ricostruita con appositi algoritmi. È sovente impiegata anche in campo architettonico per progettare interventi di correzione o ottimizzazione acustica. In questo elaborato si darà spazio ad una terza applicazione: si utilizzerà la risposta impulsiva misurata in una determinata stanza per aggiungere effetti ambientali a suoni registrati in camere anecoiche. Per perseguire quest’obiettivo, nel capitolo 1 si richiamano i concetti di base riguardo i sistemi LTI, funzioni di trasferimento e risposta impulsiva, approfondendo gli aspetti legati alle tecniche tradizionalmente usate per la misura della risposta impulsiva in ambito acustico. Si pone poi la base teorica del metodo sperimentale che sarà sviluppato nel corso dell’elaborato, fondato sulla stima numerica dello spettro di segnali ad energia finita. Nel secondo capitolo s’illustra l’impostazione della catena di misura, chiarendo le scelte hardware intraprese, le motivazioni di tali scelte, il funzionamento generale dei dispositivi impiegati e le condizioni ottimali di misura. Il capitolo 3 rappresenta il cuore di questo elaborato, nel quale viene illustrata l’implementazione vera e propria della metodologia della misura della risposta impulsiva, a partire dal settaggio degli strumenti utilizzati, alla realizzazione del codice MATLAB per l’elaborazione dei dati, per giungere infine all’analisi dei risultati sperimentali ottenuti. Con il quarto ed ultimo capitolo si introduce il concetto di equalizzazione e si implementa una prima e grossolana soluzione al problema degli effetti distorcenti introdotti dai dispositivi non ideali.
Resumo:
Nell'elaborato, dopo una breve descrizione di come vengono suddivise le macchine elettriche a seconda che vi siano o meno parti in movimento al loro interno, vengono esaminati inizialmente gli aspetti teorici che riguardano le macchine sincrone a poli lisci ed a poli salienti prendendo in esame anche quelli che sono i provvedimenti necessari a ridurre il contributo dei campi armonici di ordine superiore. Per questo tipo di macchine, spesso utilizzate in centrale per la pruduzione dell'energia elettrica, risultano di fondamentale importanza le curve a "V" e le curve di "Capability". Esse sono strumenti che permettono di valutare le prestazioni di tali macchine una volta che siano noti i dati di targa delle stesse. Lo scopo della tesi è pertanto quello di sviluppare un software in ambiente Matlab che permetta il calcolo automatico e parametrico di tali curve al fine di poter ottimizzare la scelta di una macchina a seconda delle esigenze. Nel corso dell'eleaborato vengono altresì proposti dei confronti su come varino tali curve, e pertanto i limiti di funzionamento ad esse associati, al variare di alcuni parametri fondamentali come il fattore di potenza, la reattanza sincrona o, nel caso di macchine a poli salienti, il rapporto di riluttanza. Le curve di cui sopra sono state costruite a partire da considerazioni fatte sul diagramma di Behn-Eschemburg per le macchine isotrope o sul diagramma di Arnold e Blondel per le macchine anisotrope.
Studio sperimentale del coefficiente di compressibilità secondaria al variare del contenuto organico
Resumo:
Questa tesi svolta nell’ambito della geotecnica ha L’obiettivo di porre l’attenzione sul comportamento dei cedimenti secondari, quindi sul coefficiente di consolidazione secondaria Cα mediante l’esecuzione di una prova edometrica su di una sezione di campione estratto in sito, dove si evidenzia una percentuale di contenuto organico molto alta (torba).Si introduce il concetto di terreno organico a partire dalla genesi fino ad una classificazione atta a distinguere terreni con percentuali di componente organica differenti. Si spiega la teoria della consolidazione monodimensionale, quindi la prova edometrica, riportando in maniera grafica e analitica tutti i coefficienti che da essa si possono ricavare a partire dai parametri di compressione volumetrica fino alla consolidazione primaria e secondaria (o creep)si descrivono dettagliatamente la strumentazione e la procedura di prova. Descrivendo l’edometro utilizzato in laboratorio e tutti gli accessori ad esso collegati, il campione da analizzare, la procedura di preparazione del campione alla prova edometrica, trovando alcune proprietà fisiche del campione, come il contenuto d’acqua e il contenuto organico, ed in fine riportando i passaggi della prova edometrica in modo tale da poter essere riprodotta.Si analizzano tutti i risultati ottenuti durante la prova in maniera analitica e grafica, osservando e commentando la forma dei grafici ottenuti in relazione al materiale che compone il campione ed i tempi impiegati per eseguire la prova.
Resumo:
Il Selective Laser Melting è un processo di additive manufacturing che consiste nella realizzazione di componenti metallici tridimensionali, sovrapponendo strati di polvere, che viene via via fusa mediante una sorgente controllata di energia (laser). È una tecnica produttiva che viene utilizzata da più di 20 anni ma solo ora sta assumendo un ruolo rilevante nell’industria. È un processo versatile ma complesso che ad oggi permette di processare solo un numero limitato di leghe. Il presente lavoro di tesi riguarda in particolare lo studio, dal punto di vista microstrutturale, di componenti in acciaio inossidabile austenitico AISI-316L processato mediante Selective Laser Melting, attività svolta in collaborazione con il Gruppo di Tecnologia – Laser del Dipartimento di Ingegneria Industriale. Alla base dell’attività sperimentale è stata svolta anche un’ampia ricerca bibliografica per chiarire lo stato dell’arte sul processo e sulla lega in questione, la microstruttura, i difetti, le proprietà meccaniche e l’effetto dei parametri di processo sul componente finito. Le attività sperimentali hanno previsto una prima fase di caratterizzazione delle polveri di 316L, successivamente la caratterizzazione dei campioni prodotti tramite selective laser melting, in termini di microstruttura e difetti correlati al processo. Le analisi hanno rivelato la presenza di una microstruttura “gerarchica” costituita da melt pool, grani e celle submicrometriche. I difetti rinvenuti sono pori, delaminazione degli strati, particelle di polvere non fuse. Infine è stata eseguita la caratterizzazione frattografica dei campioni sottoposti a prove di trazione e di fatica a flessione rotante (attività condotte dal gruppo Laser) per identificare la morfologia di frattura e i siti di innesco della cricca di fatica.
Resumo:
Quattro sistemi pilota, cilindrici, rappresentanti SFS a flusso verticale sono stati adoperati in parallelo per attività di ricerca. Il refluo trattato, defluente dalla sede di Ingegneria di via Terracini e classificabile come urbano, è stato immesso negli SFSV a valle di una sedimentazione primaria. Segue una breve descrizione dei sistemi. 1. VFF - Vertical Flow Filter - Reattore assimilabile ad un filtro a sabbia; 2. VFCWW - Vertical Flow Constructed Wetland with worms - Reattore dotato sia di piante (tipologia Phragmites Australis) sia di vermi (lombrichi); 3. VFCW - Vertical Flow Constructed Wetland - Reattore dotato di piante (tipologia Phragmites Australis); 4. VFFW - Vertical Flow Filter with worms - Reattore assimilabile ad un filtro a sabbia dotato di vermi (lombrichi). Il rendimento offerto da ciascun sistema è stato calcolato sulla base dei risultati forniti dalle analisi eseguite in laboratorio su campioni prelevati in input ed output da ciascun reattore. L'obiettivo dello studio è stato quello di valutare l'efficienza dei sistemi in relazione ai parametri misurati (azoto e fosforo totale, solidi sospesi, COD, ione ammoniacale, ortofosfato).
Resumo:
Nel quarto capitolo introduco il problema e spiego il funzionamento generale della macchina senza essere troppo dettagliato per mantenere i segreti industriali che siamo tenuti a rispettare. Le proposte di soluzioni sono state sviluppate sia da me, ragionando sul gruppo singolo ma anche sul gruppo complessivo in generale, altre invece sono state proposte dal mio correlatore, l’ingegner Fabrizio Rimondi, e anche il confronto con altri colleghi dell’ufficio tecnico è stato fondamentale per la realizzazione e il funzionamento del gruppo. Nel capitolo successivo ho spiegato in dettaglio le mie idee di soluzioni mettendo i relativi disegni di ogni componente di volta in volta dopo ogni modifica significativa. Ad ogni proposta ho cercato sempre di mettere le mie opinioni in merito cercando di valutare al meglio ogni tipo di approccio. Durante lo studio dei vari casi mi sono interfacciato continuamente con i fornitori per sapere se alcune delle nostre idee fossero realizzabili e quindi capire se continuare con una certa decisione o cambiare metodo di risoluzione. Dopo aver ideato 4 tipi di soluzioni abbiamo avuto un confronto con l’azienda cliente sentendo anche la loro opinione e arrivando alla decisione finale, portando delle modifiche a una delle soluzioni che ci è sembrata la più adatta al caso. Successivamente per capire se quel tipo di soluzione fosse possibile da implementare ho cercato vari fornitori per sentire la loro opinione e sapere se alcuni componenti fossero realizzabili portando le ultime modifiche alle singole parti. Successivamente nel settimo capitolo ho iniziato uno studio sul gruppo pompa da scegliere per collegarlo al gruppo oggetto di studio. Inizialmente ho fatto un’introduzione generale sulle pompe a vuoto e compressori volumetrici, dopodiché ho cercato, tra i vari cataloghi disponibili su internet, una pompa a vuoto idonea per i parametri richiesti dall’azienda cliente.
Resumo:
Questo lavoro di tesi si prefigge l’obiettivo di simulare il trasporto di organi destinati a trapianto sul territorio nazionale italiano. Lo scopo della simulazione è mettere in luce le criticità e le eventuali soluzioni alternative in modo da raggiungere un duplice obiettivo: la certezza di portare a compimento il trasporto da un ospedale ad un altro entro i tempi clinici necessari affinché l’organo sia ancora utilizzabile e la riduzione dei costi del trasporto, che negli ultimi anni si sono rivelati elevati a causa del ricorso frequente a voli di Stato. Nella prima parte del lavoro viene delineato il problema e le necessità di ottimizzazione della rete, dopodiché si illustra il modello creato per simulare la situazione di as-is ed infine si espone il modello da utilizzare in futuro, dove si prevedono i tempi futuri di percorrenza. Per la modellazione della situazione attuale sono stati utilizzati due livelli di dettaglio diversi, uno che si basa sulla suddivisione dei trapianti in ingresso e uscita da una regione specifica e uno che approfondisce ulteriormente la rete modellando gli spostamenti di città in città. I modelli predittivi presentati sono due, uno che considera tempi predittivi deterministici e uno che considera tempi stocastici. Dopo ciascuna modellazione vengono esposti i risultati e le statistiche più significative; vengono infine messi in evidenza gli aspetti critici e gli sviluppi futuri della simulazione. Il software scelto per creare e simulare il trasporto degli organi sulla rete è Arena.
Resumo:
Questo lavoro si pone l'obiettivo di fornire stime della dose efficace annua e della dose al cristallino annua per operatori di radiologia interventistica. Ci si concentra inoltre sulla dose al cristallino vista la recente direttiva EURATOM che dovrà essere recepita dalla normativa italiana entro febbbraio 2018. Ci si è occupati di una equipe di tre medici radiologi operanti presso il reparto di Neuroradiologia dell'Ospedale Bellaria di Bologna che lavora principalmente con un angiografo biplanare. Il lavoro sperimentale ha avuto inizio delineando il campo di radiazione presente nella sala operatoria ed in particolare, nei pressi del primo medico operatore che è risultato essere quello più esposto alle radiazioni. Il campo di radiazione è stato definito tramite misurazioni con camera a ionizzazzione utilizzando dei fantocci in PMMA simulanti un paziente. Determinati i valori del campo di radiazione e stabiliti alcuni parametri fissi si è cercato un parametro (possibilmente registrato dalla macchina) che permettesse una correlazione tra il carico di lavoro degli operatori e la dose da essi ricevuta in modo da ricavare stime sul lungo periodo. Questo è stato individuato nel DAP totale (registrato automaticamente dopo ogni intervento e presenti nei report) grazie alla presenza di mappe isokerma fornite dalla ditta costruttrice dell'angiografo. Tali mappe forniscono una relazione tra Kerma e DAP al variare di alcuni parametri di macchina. Affinchè fosse possibile utilizzare le mappe isokerma ne è stata necessaria la verifica tramite ulteriori misure sperimentali (nelle stesse condizioni operative definite nelle mappe). Effettuata la verifica si è determinato il carico di lavoro degli operatori per quattro mesi, assunto come periodo sufficientemente lungo per una stima sulla dose assorbita annua. Combinando i carichi di lavoro con i valori di dose assorbita rilevati si sono ottenute le stime obiettivo della tesi che vengono discusse sotto vari aspetti.
Resumo:
Il presente lavoro di tesi è stato sviluppato presso l’azienda “Nuova Star” SpA di Zola Predosa, leader mondiale nella produzione di meccanismi di apertura per porte di forni domestici. Gli scopi principali di questi meccanismi sono quelli di bilanciare il peso della porta durante l’apertura della stessa e di generare, a porta chiusa, una opportuna forza di ritenuta che la tenga pressata contro le guarnizioni del forno. L’azienda produce una notevole varietà di modelli, realizzati mediante componenti in lamiera stampata che si basano su varianti dei medesimi meccanismi di base, in particolare un manovellismo di spinta (per ottenere il bilanciamento) e un sistema camma-punteria (per garantire la chiusura). In un’ottica di sperimentazione e innovazione del prodotto, l’azienda ha quindi espresso il desiderio di realizzare un nuovo modello, concepito attraverso un sistema inedito e originale e che allo stesso tempo risultasse più economico rispetto ai vari modelli attualmente in produzione. In particolare questo nuovo meccanismo dovrà sfruttare un sistema a cavi. L’obiettivo di questa tesi è quindi quello di ripensare il meccanismo attualmente esistente, analizzando le proprietà offerte da un sistema a cavi per sfruttarne i possibili vantaggi, sia in termini di funzionamento che di economicità del prodotto finale. A tale scopo si partirà con l’analisi concettuale dell’architettura e del funzionamento dei meccanismi su cui si basano i modelli attualmente in produzione. Si passerà poi a una seconda fase di progettazione concettuale, nella quale verranno ideate e proposte varie soluzioni alternative. Seguirà quindi uno studio articolato nei seguenti punti: - Analisi cinematica e cinetostatica - Analisi e scelta dei parametri ottimali di funzionamento - Disegno costruttivo dei vari componenti - Simulazione multibody del nuovo meccanismo tramite il software MSC Adams;
Resumo:
Il tema principale della tesi é l'energia rinnovabile e in particolare l'energia solare. Una parte introduttiva é incentrata sul ruolo del rinnovabile in ambito italiano, europeo e internazionale, per poi andare a considerare possibili sviluppi in futuro. Successivamente mi sono focalizzato sull'energia proveniente dal Sole, sulle sue caratteristiche intrinseche e su come può essere utilizzato con alti rendimenti. Nella seconda parte della tesi ho sviluppato il tema del pannello solare termico, descrivendo nei particolari tutti i suoi componenti e le sue possibili applicazioni in base alla variazione dei suoi parametri fondamentali. Infine, ho concluso la tesi descrivendo alcune soluzioni innovative che in qualche modo cercano di superare i difetti intrinseci del pannello termico, e che guidano l'avanguardia e la ricerca nell'ambito energetico solare.
Resumo:
Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.
Resumo:
Il percorso di tesi che ho intrapreso è stato svolto presso l'azienda Datalogic, con l'intento di integrare un sistema di visione ad un sistema di marcatura laser. L'utilizzo di questo potente strumento è però vincolato dalla particolare posizione fisica occupata, di volta in volta, dall'oggetto; per questo motivo viene fissato nella posizione desiderata, attraverso dime meccaniche. Fin ad ora si riteneva assolutamente necessaria la presenza di un operatore per il controllo del corretto posizionamento, tramite una simulazione della marcatura. Per ovviare a questo limite strutturale, Datalogic ha pensato di introdurre uno strumento di aiuto e di visione del processo: la camera. L'idea di base è stata quella di impiegare le moderne smart camera per individuare l'oggetto da marcare e rendere quindi il processo più automatico possibile. Per giungere a questo risultato è stato necessario effettuare una calibrazione del sistema totale: Camera più Laser. Il mio studio si è focalizzato quindi nel creare un eseguibile che aiutasse il cliente ad effettuare questa operazione nella maniera più semplice possibile. E' stato creato un eseguibile in C# che mettesse in comunicazione i due dispositivi ed eseguisse la calibrazione dei parametri intrinseci ed estrinseci. Il risultato finale ha permesso di avere il sistema di riferimento mondo della camera coincidente con quello del piano di marcatura del laser. Ne segue che al termine del processo di calibrazione se un oggetto verrà rilevato dalla camera, avente il baricentro nella posizione (10,10), il laser, utilizzando le medesime coordinate, marcherà proprio nel baricentro dell'oggetto desiderato. La maggiore difficoltà riscontrata è stata la differenza dei software che permettono la comunicazione con i due dispositivi e la creazione di una comunicazione con il laser, non esistente prima in C#.
Resumo:
La tesi si propone in una prima parte di introdurre importanti concetti quali la reale forma della Terra, la definizione di quota ortometrica ed ondulazione geoidica ed i riferimenti rispetto a cui esse si misurano: ciò è necessario per descrivere la quota Helmert, la quota dinamica e la quota normale, ossia i sistemi di quote corrette per gravità attualmente utilizzati. Nella seconda parte le argomentazioni principali verteranno sui sistemi di riferimento verticali dei paesi europei e sull’importanza di unificare i datums in un’unica soluzione. Si elencheranno i vari tentativi di aggregazione dei sistemi che si sono susseguiti nella storia europea, con approfondimenti sulle loro caratteristiche e parametri statistici. Nella terza ed ultima parte, si discuterà della realizzazione più moderna di un sistema di riferimento verticale comune ai paesi comunitari, e si indicheranno le sue differenze rispetto ai sistemi precedenti. Si concluderà l’elaborato con un breve accenno sul futuro dei datum verticali europei.
Resumo:
Nel trattamento e nella cura di pazienti con lesione spinale è fondamentale una corretta valutazione della lesione e delle disfunzionalità che questa produce. Il cammino è senza dubbio una delle funzionalità maggiormente ridotta a seguito di una lesione, che può portare sia ad una diminuzione di questa capacità sia ad una completa inabilità. Nella valutazione del cammino il clinico si avvale di diverse strumentazioni come sistemi stereofotogrammetrici, pedane di forza ed elettromiografi che gli permettono di svolgere un’analisi strumentale del passo ed indagare le cause muscolari e neurologiche che portano a delle anormalità nella deambulazione. Questo lavoro si propone di presentare questi sistemi e compiere una panoramica dei principali parametri cinematici (velocità del cammino, lunghezza del passo, fase di stance, angoli articolari, ciclogrammi intra-articolari) che influenzano il passo e le metodologie con più successo nel migliorarli. Inoltre verranno evidenziati i risultati ottenuti dall’analisi elettromiografica riguardo alla presenza di pattern muscolari comuni alla base del cammino riscontrabili anche in persone sane e come gli impulsi EMG siano modulabili in ampiezza e durata a seguito di training motori.
Resumo:
Il seguente elaborato di tesi tratta il problema della pianificazione di voli fotogrammetrici a bassa quota mediante l’uso di SAPR, in particolare è presentata una disamina delle principali applicazioni che permettono di programmare una copertura fotogrammetrica trasversale e longitudinale di un certo poligono con un drone commerciale. Il tema principale sviluppato è la gestione di un volo fotogrammetrico UAV mediante l’uso di applicativi software che permettono all’utente di inserire i parametri di volo in base alla tipologia di rilievo che vuole effettuare. L’obbiettivo finale è quello di ottenere una corretta presa fotogrammetrica da utilizzare per la creazione di un modello digitale del terreno o di un oggetto attraverso elaborazione dati in post-processing. La perfetta configurazione del volo non può prescindere dalle conoscenze base di fotogrammetria e delle meccaniche di un veicolo UAV. I capitoli introduttivi tratteranno infatti i principi della fotogrammetria analogica e digitale soffermandosi su temi utili alla comprensione delle problematiche relative al progetto di rilievo fotogrammetrico aereo. Una particolare attenzione è stata posta sulle nozioni di fotogrammetria digitale che, insieme agli algoritmi di Imagine Matching derivanti dalla Computer Vision, permette di definire il ramo della Fotogrammetria Moderna. Nei capitoli centrali verranno esaminate e confrontate una serie di applicazioni commerciali per smartphone e tablet, disponibili per sistemi Apple e Android, per trarne un breve resoconto conclusivo che le compari in termini di accessibilità, potenzialità e destinazione d’uso. Per una maggiore comprensione si determinano univocamente gli acronimi con cui i droni vengono chiamati nei diversi contesti: UAV (Unmanned Aerial Vehicle), SAPR (Sistemi Aeromobili a Pilotaggio Remoto), RPAS (Remotely Piloted Aicraft System), ARP (Aeromobili a Pilotaggio Remoto).