520 resultados para Tomografia, prove soniche dirette, surfer, geotom, velocità di propagazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel seguente elaborato si espone l’utilizzo del sistema GPS/INS per la valutazione del moto di un ciclomotore. Tale sistema è composto da sensori GPS ( Global Navigation System ) per la misurazione della posizione, e da sensori INS ( Inertial Navigation System) per la misurazione dell’accelerazione e delle velocità angolari rispetto a tre assi coordinati. Chiaramente le misure di accelerazioni e di velocità angolari da parte dei sensori, presentano dei minimi errori, che però si ripercuotono sul posizionamento finale. Per limitare questo fenomeno e rendere la misura di velocità e posizione utilizzabile, un filtro di Kalman viene impiegato per correggere il risultato dell'integrazione usando le misurazioni del GPS. Il connubio tra il sistema INS e il sistema GPS è molto efficacie anche quando si ha una assenza di ricezione satellitare o perdita parziale dei satelliti (cycle slip). Infine è stato utilizzato uno smartphone sfruttando i sensori in esso presenti : accelerometri, giroscopi, GPS, per analizzare la dinamica di un ciclomotore, concentrandosi sull’assetto in particolar modo l’angolo di rollio. Tale prova è stata affrontata non tanto per validare il sistema GPS/INS, ma per provare una soluzione comoda e di basso costo per analizzare il moto di un ciclomotore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I sistemi di localizzazione, negli ultimi anni, sono stati oggetto di numerose ricerche a livello internazionale.Gli sviluppi più importanti hanno avuto inizio nell’ambito stradale con sistemi di navigazione e localizzazione, possibili grazie alle forti capacità del GPS.Infatti il GPS indica l’intero apparato che permette il funzionamento della maggior parte dei navigatori disponibili in commercio, che, però, non sono utilizzabili in ambito indoor, in quanto la ricezione del segnale proveniente dai satelliti GPS diventa scarsa o pressoché nulla. In questo senso, la localizzazione risulta rilevante nel caso di indoor positioning, ossia quando utenti hanno bisogno di conoscere la propria posizione e quella degli altri membri della squadra di soccorso all’interno di un edificio come, ad esempio, i vigili del fuoco durante un’operazione di salvataggio. Sono questi fattori che portano all’idea della creazione di un sistema di localizzazione indoor basato su smartphone o una qualsiasi altra piattaforma disponibile. Tra le diverse tecnologie e architetture legate al posizionamento indoor/outdoor e inerziale, con questa tesi, si vuole esporre la foot-mounted inertial navigation, un sistema che permette di conoscere la propria posizione, sia all’interno di edifici,sia in campi aperti, tramite l’utilizzo di una rete wireless o GPS e l’aiuto di sensori a basso costo.Tuttavia per conoscere la stima ottimale della posizione, della velocità e dell’orientamento corrente di un utente dotato di sensori sarà necessaria l’integrazione di diversi algoritmi, che permettono di modellare e stimare errori o di conoscere e predire la posizione futura dello stesso. Gli scopi principali di questo lavoro sono: 1)Tracciare i movimenti di un utente usando diversi sensori per ottenere una stima ottimale della posizione dello stesso; 2)Localizzare l’utente in 3 dimensioni con precisione; 3)Ottenere una transizione senza interruzioni per un posizionamento continuo tra aree indoor e outdoor;

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente progetto ha riguardato lo studio e lo sviluppo di metodologie per la generazione automatica di calibrazioni di guidabilità motore cambio, dove con guidabilità si intende il legame intercorrente tra le richieste del conducente ed il reale comportamento del veicolo. La prima parte della tesi si è concentrata sullo studio delle calibrazioni motore e delle calibrazioni del cambio automatico attualmente sfruttate dai software di produzione, sviluppando un modello di simulazione in grado di verificare come queste calibrazioni influenzino il comportamento del veicolo, concentrandosi sugli andamenti delle accelerazioni e dei regimi motore risultanti. Dopo la validazione del modello, è stato creato uno strumento, in ambiente Matlab, che restituisce la calibrazione di guidabilità del cambio automatico, ovvero la mappa sfruttata dalla relativa centralina per gestire il cambio della marcia, ricevendo in ingresso le seguenti informazioni: le grandezze fisiche del veicolo nel suo complesso, quali la massa, i rapporti di trasmissione, il rapporto del differenziale, il raggio di rotolamento dinamico e tutte le inerzie dei componenti della driveline; le calibrazioni di guidabilità motore, costituite da otto mappe, una per ogni marcia, che definiscono la coppia motrice che si richiede al motore di erogare, in funzione della posizione del pedale acceleratore e del regime motore; il piano quotato del motore. Il codice, note queste informazioni, genera automaticamente la mappa di cambio marcia con le linee di Upshift (marcia innestata crescente) e Downshift (marcia innestata decrescente), in funzione della posizione del pedale e dei giri in uscita dal cambio. Infine, si è valutata una possibile strategia per la calibrazione delle otto mappe pedale con cui viene gestito il controllo motore. Si sono generate mappe a potenza costante in cui il pedale assume la funzione di regolatore di velocità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo mio elaborato ho affrontato il tema della traduzione audiovisiva. Mi sono soffermata sulla tecnica del sottotitolaggio, concentrando la mia attenzione sui format televisivi di cucina. Sono stata spinta da una vera e propria passione per tutto ciò che riguarda la sfera gastronomica e i programmi televisivi a questa dedicati. Oggi queste trasmissioni hanno raggiunto un vero e proprio successo mondiale. La nostra è l’era dei grandi format televisivi che non parlano altro che di cucina, sfide tra i fornelli e critiche spietate. La cucina è alla base di ogni civiltà ed è parte integrante della cultura di ogni popolo. Tra le molteplici sfaccettature delle culture, troviamo la gastronomia che, dal mio punta di vista, è situata ai primi posti per importanza. L’Italia e la Francia hanno, sin da sempre, dimostrato la loro eccellenza all’interno del panorama mondiale enogastronomico: la cucina italiana, con la sua semplicità e i suoi sapori mediterranei, e quella francese, ricca di note tradizionali ed esotiche all’unisono. Per questo motivo, la mia attenzione si è rivolta a un talk show culinario ormai noto in tutto il mondo: MasterChef. In questo format televisivo, i concorrenti sono tenuti a sostenere varie prove, nelle quali bisogna realizzare piatti dell’arte culinaria del paese in cui il programma viene trasmesso e non solo. Scopo del programma è aggiudicarsi il titolo di miglior chef. Ho scelto chiaramente un’edizione a mio piacimento del programma per entrambi i paesi e ho proposto un sottotitolaggio per un particolare momento di questo format televisivo: la finale. Nella fattispecie, ho proposto il sottotitolaggio per la finale di MasterChef Italia in francese e per la finale di MasterChef France in italiano. Ho scelto di sottotitolare questo particolare momento della trasmissione televisiva, in quanto ritengo che, oltre ad essere uno dei più emozionanti per i telespettatori, sia ricco di elementi utili per un’analisi approfondita in ambito traduttivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo di questo elaborato è quello di provvedere alla elaborazione dei dati geometrici necessari alla modellazione dei condotti di aspirazione e scarico di un motore 4 cilindri turbo benzina ad iniezione diretta (GDI) disponibile a banco prove. I dati sperimentali raccolti sono stati elaborati e sintetizzati, con lo scopo di fare avvicinare il più possibile le caratteristiche del modello a quelle del sistema a banco (cercando dunque di rendere il modello il più veritiero possibile). In primo luogo, saranno descritte le principali caratteristiche dei motori a combustione interna, con particolare enfasi rivolta ai componenti ed ai processi che caratterizzano i motori turbo GDI. In un secondo momento, sarà descritto come si è proceduto nella raccolta dei dati necessari alla modellazione e nell’elaborazione degli stessi. Il software cui l’elaborazione dei dati necessari alla modellazione è stata rivolta è GT-Suite, prodotto da Gamma Technologies e largamente utilizzato dalla maggior parte delle aziende del settore automotive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si prefigge di analizzare le condizioni di stabilità di un argine inferiore del fiume Po situato presso il comune di Viadana (MN), più volte interessato da eventi franosi che si sono ripetuti con una certa frequenza nel corso degli ultimi anni. L'argomento proposto nella tesi prende spunto dall’esperienza presso il Polo Scientifico e Tecnologico di AIPO a Boretto (RE), nell’ambito del tirocinio formativo, durante il quale ho portato a termine un programma di prove geotecniche su campioni indisturbati prelevati nel sito interessato da fenomeni di instabilità, allo scopo di migliorare le conoscenze sulla risposta meccanica dei terreni arginali e del substrato di fondazione. Utilizzando i risultati delle prove di laboratorio, unitamente alle informazioni provenienti dai sondaggi e dalle prove penetrometriche (CPT/CPTU), è stato possibile innanzitutto identificare le unità stratigrafiche presenti nel sistema arginale e determinarne i parametri meccanici, per poi procedere alla costruzione del modello geotecnico di riferimento per le analisi di stabilità. Pertanto la tesi si pone come obiettivi principali la messa a punto di un modello geotecnico affidabile dell'argine, la verifica della stabilità globale delle scarpate lato fiume e l'individuazione dei fattori scatenanti i fenomeni di scorrimento osservati, nonché la scelta di possibili interventi per la messa in sicurezza delle sponde, valutandone i benefici in termini del fattore di sicurezza ed i relativi costi. L'insieme dei risultati conseguiti in questo studio permette di fornire utili indicazioni a coloro che sono preposti alla manutenzione e messa in sicurezza delle strutture arginali del fiume Po.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel corso degli anni le fonti rinnovabili e in particolare il fotovoltaico hanno assunto un ruolo sempre più importante nel panorama energetico italiano. Si è effettuata un’analisi della tecnologia fotovoltaica illustrandone il funzionamento, le tipologie di pannelli, il calcolo dell’energia elettrica producibile e le curve caratteristiche. Dal momento che la maggior parte delle rinnovabili presenta il problema della non programmabilità dovuta alla produzione intermittente, è necessario adottare dei sistemi di accumulo. Tali sistemi vengono mostrati, con particolare riguardo per le batterie al piombo acido e per l’idrogeno immagazzinato in idruri metallici, spiegando nel dettaglio l’elettrolisi e gli elettrolizzatori PEM. Dopo questa panoramica iniziale, si è illustrato l’impianto oggetto di questa tesi, composto principalmente da due pannelli fotovoltaici, un simulatore solare, due batterie al Piombo, un elettrolizzatore, un carico e un alimentatore. In seguito viene spiegata l’attività sperimentale, svolta sulle prove di laboratorio ai fini di ottenere le curve di funzionamento dei vari componenti, tramite due approcci diversi: per il sistema atto all’elettrolisi e per tutti i suoi componenti si è usato un modello black-box, per i pannelli fotovoltaici si è usato un approccio fisico-matematico partendo dalle equazioni del simulatore solare applicandovi i dati dei pannelli del laboratorio. Una volta ottenute queste curve, si è creato un modello completo del laboratorio per simularne il funzionamento al variare dell’irraggiamento. Si è testato prima il modello su un’utenza da 3 kW, poi, dopo aver confrontato gli andamenti reali con quelli ottenuti, si sono simulate varie configurazioni per trovare quella che permette al sistema di produrre idrogeno alla potenza nominale di 250 W in una giornata senza supplemento della rete elettrica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella seguente tesi viene affrontato il problema dell'applicabilità di sorgenti laser nella saldatura dell'ottone; questo materiale risulta difficile da saldare poiché nella lega è presente lo zinco, un elemento altamente volatile. La presenza dello zinco comporta la realizzazione di cordoni di saldatura non ottimali, caratterizzati da inclusioni e porosità. Nell'elaborato viene prima descritto il laser con le sue applicazioni industriali; poi seguono in ordine una descrizione del laser Nd:YAG, una panoramica sull'ottone OT 63 (CuZn37) trattato ed una descrizione dettagliata sul sistema laser usato per le prove in laboratorio (sistema SISMA SWA-300). Infine viene trattata in maniera molto approfondita la parte relativa alle prove effettuate sull'ottone, mettendo in evidenza i parametri usati e commentando i risultati ottenuti, in modo da avere un'idea circa l'effettiva applicabilità dei processi di saldatura laser sul materiale in oggetto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato ha come oggetto l’analisi e lo studio delle teorie di calcolo degli stati tensionali e deformativi delle lastre in calcestruzzo e dei metodi di progettazione delle pavimentazioni rigide aeroportuali, le quali sono state applicate al caso specifico degli interventi di riqualifica e adeguamento delle infrastrutture di volo dell’Aeroporto “Marco Polo” di Tessera – Venezia. Sono state descritte le principali fasi realizzative della pavimentazione rigida dell’Apron Sud del suddetto aeroporto ed analizzati i risultati delle prove di caratterizzazione del calcestruzzo, in fase preliminare e in corso d’opera, e delle prove di valutazione della capacità portante della sovrastruttura ultimata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dallo studio della sismicità storica della città di Bologna (Guidoboni e Boschi, 2003) emerge che la maggior parte dei danni causati dai terremoti è concentrata nella parte Nord e Nord-Ovest della città, a nord delle attuali vie S. Donato e S. Isaia. In questo lavoro abbiamo studiato la risposta sismica in diversi siti del centro storico di Bologna, per capirne il comportamento in caso di terremoto e verificare se i risultati fossero compatibili con i dati storici. È stata effettuata una campagna di misure geofisiche: 52 con tecnica passiva a stazione singola HVSR per misurare le frequenze di amplificazione dei sottosuoli (47 all’interno delle mura), 5 in array per misurare l’andamento delle velocità delle onde di taglio nel sottosuolo (tutte all’interno delle mura). 22 delle 47 misure H/V mostrano amplificazione nell’intervallo di frequenze tra 1 e 10 Hz, quello di interesse per le strutture del centro storico. Le cause di queste amplificazioni si ipotizzano essere un livello ghiaioso a circa 10-15 m di profondità (Fiori, 2002) in approfondimento da centro città verso est, e un livello sabbioso a circa 10 m di profondità (Amorosi, 2014). Le misure in array, invece, indicano sostanzialmente che l’estremità orientale della città storica ha rigidezze maggiori a profondità maggiori di 50 m. Il dato derivante dalla sismologia storica, in sintesi, non pare essere completamente supportato da evidenze geologiche o geofisiche: la risposta sismica all’interno delle mura di Bologna varia leggermente da punto a punto, ma senza mostrare trend applicabili ad estese macroaree. Solo l’estremo Nord-Est della città ha un comportamento amplificativo più omogeneo (amplificazione a 1-3 Hz) in linea con la geologia locale, che presenta livelli marcatamente ghiaiosi sotto i 15 m di profondità. La variabilità geologica e di risposta sismica locale è stata verificata essere molto maggiore fuori dalle mura di cinta della città.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro di questa tesi è frutto dell’esperienza maturata in quattro mesi di tirocinio presso l’U.S. Geological Survey di Menlo Park, da ottobre 2015 a gennaio 2016. Durante questo periodo sono state eseguite quattro campagne di raccolta dati sismici e geotecnici presso la città di Napa, ove, il 24 agosto 2014, si è verificato un terremoto di magnitudo momento pari a 6.0. Quest’area è stata interessata in precedenza da terremoti minori, il più significativo dei quali risulta essere il terremoto di Yountville del 2000 di magnitudo momento pari a 5.1. I rilievi macrosismici, effettuati immediatamente dopo il terremoto di Napa del 2014, hanno fornito una classificazione dettagliata delle strutture danneggiate nel distretto colpito. Obiettivo di questa tesi è comprendere se la distribuzione dei danni osservata sia legata anche alle caratteristiche geologiche locali (effetti di sito), oltre che alla vicinanza all’epicentro. A questo scopo sono state acquisite 63 misure sismiche passive a stazione singola e 4 prove di sismica attiva multicanale, la cui inversione congiunta ha permesso di creare mappe dei riflettori sismici principali sotto le zone interessate dal terremoto. Allo stesso tempo tali mappe, interpretate alla luce della cartografia geologica, hanno permesso di costruire sezioni geologiche e di identificare le corrispondenze tra riflettori geologici e riflettori sismici. Si è così potuto osservare che le zone più pesantemente danneggiate dal terremoto sono quelle che ricadono ove si sono misurate amplificazioni per risonanza in medio-alta frequenza (> 3 Hz) mentre scarsi danni si sono registrati nelle aree caratterizzate da roccia affiorante (e curve di amplificazione per risonanza piatte) e danni minori nelle zone contraddistinte solo da bedrock sismico profondo. La distribuzione del danno, evidenziatosi prevalentemente dove le frequenze proprie di vibrazione del suolo sono mediamente sopra 3 Hz, risulta compatibile con gli intervalli di frequenza attesi per le strutture residenziali tipiche di Napa Valley, che sono costituite da 2-3 piani fuori terra, in legno e di altezza non superiore ai 10 metri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi si pone come obiettivo quello di realizzare un'architettura di alto livello per lo sviluppo di applicazioni dirette alla piattaforma HoloLens. Per conseguire tale risultato si è rivelata necessaria una prima parte di studio dei concetti di mixed reality, con riferimento particolare al caso specifico HoloLens, per poi dirigere l'attenzione alla comprensione dell'architettura di applicazioni olografiche. L'analisi delle API rilasciate per lo sviluppo di applicazioni HoloLens ha permesso di riscontrare varie criticità, alle quali si è posto rimedio tramite l'introduzione di un livello di astrazione, che possa consentire uno sviluppo di applicazioni ad un livello più alto. Si è poi introdotto il concetto di augmented worlds (mondi aumentati), i cui principi cardine hanno fornito le basi per la progettazione e lo sviluppo di un sistema client-server, nel quale il dispositivo HoloLens agisce come un client e la logica di controllo degli elementi del modello dell'applicazione viene gestita lato server.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La VMAT (Volumetric Modulated Arc Therapy) è una delle più recenti tecniche radioterapiche, in cui, oltre alla modulazione geometrica della fluenza del campo di radiazione come avviene nell’IMRT (Intensity Modulated Radiotherapy), sono variati durante il trattamento anche la velocità del gantry e il rateo di dose. La radiazione è erogata senza interruzioni lungo uno o più archi continui della testata dell’acceleratore, così da ridurre i tempi di trattamento in modo sostanziale rispetto all’IMRT. Nelle tecniche ad intensità modulata, ed in particolare nella VMAT, il lettino porta paziente modifica la distribuzione di dose durante gli irraggiamenti posteriori, riducendo quella al target e aumentando quella superficiale. Il presente lavoro di tesi, che ha proprio l’obiettivo di valutare questi aspetti dosimetrici in un’ottica pre-clinica, è stato svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola–Malpighi, Azienda Ospedaliero-Universitaria di Bologna. Le misure sono state effettuate presso le U.O. Radioterapia-Morganti e Radioterapia-Frezza f.f. della medesima Azienda Sanitaria, al fine di caratterizzare dal punto di vista dosimetrico il lettino di trattamento iBEAM evo dell’acceleratore lineare Synergy Elekta. L’attenuazione misurata in caso di incidenza perpendicolare del fascio sul lettino, in buon accordo con gli articoli di riferimento, è stata: (2.81±0.06)% per fotoni di energia di 6 MV, (1.81±0.10)% a 10 MV e (1.38±0.05)% a 15 MV. L’attenuazione massima misurata con fotoni di energia di 6 MV si è avvicinata al 4% negli irraggiamenti obliqui. Infine, è stato analizzato il confronto con statistica gamma fra distribuzione di dose pianificata e misurata prima e dopo aver modellizzato le caratteristiche del lettino nel software per l’elaborazione del piano di trattamento. Solo dopo tale operazione, i due casi VMAT analizzati (tumore dell’orofaringe e prostatico) superano i criteri più restrittivi e affidabili utilizzati nella pratica clinica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.