1000 resultados para Localizzazione Stima Angolo di Arrivo Elaborazione Audio MATLAB Simulazione
Resumo:
Questa tesi coniuga metodologie tradizionali e nuove tecnologie per far luce sulla straordinaria proliferazione di immagini musicali che caratterizza il ducato di Alfonso I d’Este (1505-1534) e offrire la possibilità di esplorare in modo nuovo uno degli ambienti più significativi del Rinascimento: il Camerino delle Pitture, studiolo del Duca. Il lavoro svolto ha portato all’individuazione di 60 opere finora mai analizzate da un punto di vista iconografico-musicale, ad eccezione di pochissimi casi, e alla creazione del primo catalogo iconografico-musicale sulla Ferrara di Alfonso I (vol. II). Il vol. I della tesi espone gli approfondimenti critici. Il corpus raccolto nel catalogo è inquadrato nel particolare contesto culturale di ricercata sinergia tra le arti, alla luce della dimensione cortese del consumo musicale ma soprattutto del valore identitario che Alfonso stesso attribuiva alla musica. Le immagini musicali sono quindi analizzate nella duplice veste di testimonianze storiche (sui contesti esecutivi, sulle sonorità degli ensembles, sulla diffusione e l’interesse per alcuni strumenti e sul loro valore di emblemi dell’elegante ed armonica vita cortese) e di omaggio verso il Duca, i suoi gusti artistici e le sue vedute culturali. Ad Alfonso e alle sue identificazioni mitologiche è dedicata la seconda parte. Un accurato profilo caratteriale prelude all’analisi di alcune delle opere più significative della committenza alfonsina con particolare attenzione ai capolavori provenienti dai suoi studioli, lo Studio dei Marmi e il Camerino delle Pitture. Quest’ultimo è al centro anche della terza ed ultima parte della tesi che ne propone, in conclusione, un’originale elaborazione 3D in cui è possibile avere informazioni storico-critiche sulle opere e, soprattutto, ascoltare una registrazione inedita del canone di Adrian Willaert raffigurato nel Baccanale degli Andrii di Tiziano, autentico manifesto identitario e culturale di Alfonso.
Resumo:
Le tecniche di Machine Learning sono molto utili in quanto consento di massimizzare l’utilizzo delle informazioni in tempo reale. Il metodo Random Forests può essere annoverato tra le tecniche di Machine Learning più recenti e performanti. Sfruttando le caratteristiche e le potenzialità di questo metodo, la presente tesi di dottorato affronta due casi di studio differenti; grazie ai quali è stato possibile elaborare due differenti modelli previsionali. Il primo caso di studio si è incentrato sui principali fiumi della regione Emilia-Romagna, caratterizzati da tempi di risposta molto brevi. La scelta di questi fiumi non è stata casuale: negli ultimi anni, infatti, in detti bacini si sono verificati diversi eventi di piena, in gran parte di tipo “flash flood”. Il secondo caso di studio riguarda le sezioni principali del fiume Po, dove il tempo di propagazione dell’onda di piena è maggiore rispetto ai corsi d’acqua del primo caso di studio analizzato. Partendo da una grande quantità di dati, il primo passo è stato selezionare e definire i dati in ingresso in funzione degli obiettivi da raggiungere, per entrambi i casi studio. Per l’elaborazione del modello relativo ai fiumi dell’Emilia-Romagna, sono stati presi in considerazione esclusivamente i dati osservati; a differenza del bacino del fiume Po in cui ai dati osservati sono stati affiancati anche i dati di previsione provenienti dalla catena modellistica Mike11 NAM/HD. Sfruttando una delle principali caratteristiche del metodo Random Forests, è stata stimata una probabilità di accadimento: questo aspetto è fondamentale sia nella fase tecnica che in fase decisionale per qualsiasi attività di intervento di protezione civile. L'elaborazione dei dati e i dati sviluppati sono stati effettuati in ambiente R. Al termine della fase di validazione, gli incoraggianti risultati ottenuti hanno permesso di inserire il modello sviluppato nel primo caso studio all’interno dell’architettura operativa di FEWS.
Resumo:
La ricerca si pone l’obiettivo di analizzare strumenti e metodi per l’applicazione dell’H-BIM comprendendone le criticità e fornendo soluzioni utili in questo campo. Al contempo la finalità non è circoscrivibile alla semplice produzione di modelli 3D semanticamente strutturati e parametrici a partire da una nuvola di punti ottenuta con un rilievo digitale, ma si propone di definire i criteri e le metodiche di applicazione delle H-BIM all’interno dell’intero processo. L’impostazione metodologica scelta prevede un processo che parte dalla conoscenza dello stato dell’arte in tema di H-BIM con lo studio dell’attuale normativa in materia e i casi studio di maggior rilevanza. Si è condotta una revisione critica completa della letteratura in merito alla tecnologia BIM e H-BIM, analizzando esperienze di utilizzo della tecnologia BIM nel settore edile globale. Inoltre, al fine di promuovere soluzioni intelligenti all’interno del Facility Management è stato necessario analizzare le criticità presenti nelle procedure, rivedere i processi e i metodi per raccogliere e gestire i dati, nonché individuare le procedure adeguate per garantire il successo dell’implementazione. Sono state evidenziate le potenzialità procedurali e operative legate all’uso sistematico delle innovazioni digitali nell’ottica del Facility Management, oltre che allo studio degli strumenti di acquisizione ed elaborazione dei dati e di post-produzione. Si è proceduto al testing su casi specifici per l’analisi della fase di Scan-to-BIM, differenziati per tipologia di utilizzo, data di costruzione, proprietà e localizzazione. Il percorso seguito ha permesso di porre in luce il significato e le implicazioni dell’utilizzo del BIM nell’ambito del Facility Management, sulla base di una differenziazione delle applicazioni del modello BIM al variare delle condizioni in essere. Infine, sono state definite le conclusioni e formulate raccomandazioni riguardo al futuro utilizzo della tecnologia H-BIM nel settore delle costruzioni. In particolare, definendo l’emergente frontiera del Digital Twin, quale veicolo necessario nel futuro della Costruzione 4.0.
Resumo:
OPA3 è una proteina codificata dal genoma nucleare che, grazie a una sequenza di targeting mitocondriale, viene indirizzata ai mitocondri dopo la sua sintesi. Le mutazioni nel gene OPA3 sono associate a due patologie neurodegenerative: la Sindrome di Costeff, causata da mutazioni recessive, e una forma di atrofia ottica dominante che si manifesta con cataratta e spesso sordità. L’esatta funzione e regolazione della proteina non sono ancora state completamente chiarite, così come la sua localizzazione nella membrana mitocondriale esterna o interna. Lo scopo di questa tesi era quello di fare luce sulla funzione della proteina OPA3, con particolare interesse alla dinamica mitocondriale e all’autofagia, sulla sua localizzazione subcellulare ed infine di definire il meccanismo patogenetico nelle patologie neurodegenerative causate da mutazioni in questo gene. A questo scopo abbiamo utilizzato sia una linea di neuroblastoma silenziata stabilmente per OPA3 che linee cellulari primarie derivate da pazienti. I risultati del presente studio dimostrano che la riduzione di OPA3, indotta nelle cellule del neuroblastoma e presente nei fibroblasti derivati dai pazienti, produce alterazioni nel network mitocondriale con uno sbilanciamento a favore della fusione. Questo fenomeno è probabilmente dovuto all’aumento della forma long della proteina OPA1 che è stato riscontrato in entrambi i modelli cellulari. Inoltre, seppur con direzione apparentemente opposta, in entrambi i modelli abbiamo osservato un’alterata regolazione dell’autofagia. Infine, abbiamo confermato che OPA3 localizza nella membrana mitocondriale interna ed è esposta per gran parte nella matrice. Inoltre, un segnale della proteina è stato trovato anche nelle mitochondrial associated membranes, suggerendo un possibile ruolo di OPA3 nel trasferimento dei lipidi tra i mitocondri e il reticolo endoplasmatico. Abbiamo rilevato un’interazione della proteina OPA3 con l’acido fosfatidico che non era mai stata evidenziata fino ad oggi. Queste osservazioni sono compatibili con le alterazioni della dinamica mitocondriale e la disregolazione dell’autofagia documentate nei modelli studiati.
Resumo:
In questo lavoro di tesi è stato analizzato il sistema convettivo a mesoscala (Mesoscale Convective System (MCS)) del 05/09/2015, abbattutosi sui golfi di Gaeta e di Napoli, sulla stessa città di Napoli e sull'entroterra irpino, scaricando una notevole quantità di fulmini e chicchi di grandine di dimensioni molto al di sopra di quelle usuali nella regione mediterranea, con un diametro compreso tra i 5 ed i 10 cm. Nel primo capitolo vengono presentati gli strumenti utilizzati per l'acquisizione dei dati da satellite, dei fulmini e delle mappe di previsione. Nel secondo capitolo viene effettuata un'analisi meteorologica, in cui vengono descritte le condizioni meteorologiche precedenti e contemporanee all'evento, col supporto di dati provenienti dai modelli numerici di previsione, dalle immagini da satellite e dai radiosondaggi; viene inoltre giudicata la performance di previsione dei modelli. Nel terzo capitolo viene descritto il lavoro di elaborazione dei dati da satellite e vengono esposti i risultati e i grafici ottenuti sull'evoluzione della nube. Si descrive l'elaborazione dei dati sui fulmini e, tramite mappe e grafici, si ricercano correlazioni e risultati. Nel quarto capitolo vengono mostrati alcuni fotogrammi estratti da video presenti su Internet che dimostrano l'eccezionalità dell'evento.
Resumo:
La conoscenza del tasso di crescita di due popolazioni di Pinna nobilis, in due località del Mar Mediterraneo Occidentale, insieme ad una stima d’età, sono un requisito fondamentale per poter comprendere meglio la biologia e l’ecologia di questa specie, al fine di poter istituire specifiche misure di tutela e conservazione. L’obiettivo di questa tesi è quello di utilizzare lo studio della sclerocronologia per comprendere l’origine dei registri interni di crescita e giungere così ad informazioni più accurate sulle modalità di accrescimento. Le valve di individui morti di Pinna nobilis sono state prelevate in due zone della costa Valenciana (Spagna), Calpe e Isola di Tabarca, al fine di valutare la variabilità del processo di crescita. Dalle valve sono state create delle sezioni di 300µm, grazie all’utilizzo di una sega con lama a diamante. Tali sezioni sono state osservate allo stereo-microscopio a luce trasmessa in direzione antero-posteriore. Una stima d’età iniziale è stata effettuata tramite una conta delle lingue di madreperla individuate. Per una stima più precisa è stato analizzato anche lo spessore dello strato di calcite in prossimità dei tre registri interni di crescita più vecchi. Gli individui più longevi appartengono alla popolazione dell’Isola di Tabarca (età max= 25anni), mentre l’età massima raggiunta dagli individui della popolazione di Calpe è 17 anni. Per analizzare l’accrescimento degli individui è stata utilizzata l’equazione di crescita di Von Bertalanffy. Gli individui della popolazione di Calpe hanno un tasso di accrescimento più elevato rispetto a quelli della popolazione di Tabarca, con una lunghezza massima asintotica (Lmax) di 65.2cm per Calpe e 54.9cm per l’Isola di Tabarca. Tali risultati confermano l’esistenza di una forte variabilità di accrescimento fra popolazioni di siti diversi. Le cause son da ricercare nelle caratteristiche dell’area, come il livello trofico, l’esposizione alla forza di onde e correnti o all’impatto antropico.
Resumo:
La Tesi nasce a seguito della richiesta da parte di un’Azienda Socia del Consorzio Esperienza Energia di un servizio di supporto per l’ottimizzazione del proprio Sistema di Gestione dell’Energia (SGE/EnMS) ed in particolare per l’implementazione di metodologie di budgeting più efficienti rispetto a quelle attualmente utilizzate. Questo lavoro di Tesi si è sviluppato in due parti: Nella prima parte viene descritto, a livello generale, che cosa si intende per Sistema di Gestione dell’Energia o Energy Management System e quali sono i vantaggi nell’implementazione di tale sistema in una realtà industriale. Successivamente, viene presentata la norma “UNI CEI EN ISO 50001: Sistemi di Gestione dell’Energia – Requisiti e linee guida per l’uso” attraverso una breve introduzione su quelli che sono i requisiti e gli obiettivi descritti nella norma. Nella seconda parte viene descritta l’implementazione pratica di un SGE presso un’Azienda Socia di CEE, partendo dalla raccolta sia dei dati di consumo a livello globale (LIVELLO A) che a livello di Edificio (LIVELLO B), sia dall'individuazione dei principali Energy Drivers (parametri) che veicolano i consumi. Attraverso questi dati è stato creato un Modello di calcolo per la definizione dei consumi di Riferimento (Energy Baseline); tale Baseline traccia i dati di prestazione energetica da cui si parte per andare a costruire per l’azienda i principali Indicatori Energetici (EnPI, Energy Performance Indicators). Il modello energetico così costruito è stato quindi tarato sui consumi energetici misurati al fine di fornire all'Azienda un algoritmo di stima dei propri consumi energetici futuri, sia mensili che annuali. Il processo di taratura ha dimostrato come il modello energetico dell’azienda che è stato costruito in questa Tesi sia da ritenersi uno strumento affidabile per la previsione dei consumi energetici futuri ipotizzando un certo livello di produzione industriale nel corso dell’anno oggetto di simulazione.
Resumo:
Il seguente lavoro è uno studio di iniezione (strategia, timing, spray pattern) svolto con la simulazione numerica, alle quali oggi si richiede dettaglio e accuratezza. Il lavoro si concentra sullo studio di spray multi componente, tramite la scrittura di una UDF (user define function) proprietaria, valutazione sensibilità dell'impatto a parete, film boiling a parametri modellistici influenzati dal multicomponente e scrittura di un codice per l'elaborazione delle immagini sia sperimentali che numeriche per rendere più esteso il confronto tra CFD e sperimentale, per migliorare le tarature e i modelli e comprendere meglio la fenomenologia.
Resumo:
Nel presente lavoro di tesi è stato studiato il processo di adsorbimento di molecole su materiali a base grafene, la cui elevata area superficiale può essere misurata esclusivamente tramite la quantificazione di tali processi fisici. L’obiettivo principale di questo studio è stato quello di ottenere un protocollo sperimentale utile alla determinazione delle aree superficiali di materiali a base grafenica in soluzione. La molecola usata come standard per l’adsorbimento in liquido è stata il blu di metilene (MB), già ampiamente utilizzata in letteratura. Nello stato dell’arte attuale gran parte dei materiali sono stati analizzati unicamente tramite l’adsorbimento di gas in fase solida (N2 o Ar), ma per materiali composti a strati le diverse condizioni di aggregazione della polvere in secco e in soluzione portano ad una diversa stima dell’effettiva area superficiale. Con il presente lavoro è stato dimostrato che per substrati con aree superficiali comprese fra 6 e 1600 m2/g il MB è un'eccellente molecola standard per calcolare l’area superficiale in soluzione, trascurando la presenza di microporosità.
Resumo:
In campo motoristico, negli ultimi anni, la ricerca si è orientata allo studio approfondito dell'efficienza di combustione, individuandone in primo luogo i principali aspetti limitanti. Primo tra tutti la detonazione che, essendo dannosa per i componenti del motore (e in particolare quelli della camera di combustione), è adesso al centro di molti studi. L'obiettivo è di conoscerla a fondo in modo da poterne arginare gli effetti. Questa tesi si colloca in un ampio progetto volto a perseguire tale risultato. Infatti, lo studio del danno che viene indotto sui componenti della camera di combustione (i pistoni in particolare), della sua morfologia, della localizzazione prevalente e i principali parametri ai quali esso risulta correlabile, fanno parte dell'attività sperimentale esposta in questo lavoro. Essa si concentra inoltre sul degrado termico della lega dei pistoni a seguito di prove a banco sul motore, che si pongono l'obiettivo di provocare elevati livelli di detonazione e su eventuali benefici che derivano dal poterne accettare episodi di entità incipiente. A tale proposito, viene esposto e validato un modello di temperatura dei gas di scarico Real Time, tramite il quale è possibile calcolare la temperatura di essi una volta noto il punto motore.
Resumo:
This dissertation explores the practice of transcreation as a consulting service aimed at companies wishing to enter the global market. Since a universally accepted definition of such term does not exist, different players use it to refer to different activities. In an attempt to investigate the meaning and scope of transcreation, as well as the skillset it requires, this dissertation consists of a theoretical part (Chapters 1 and 2) and a practical part (Chapter 3). The first chapter presents the opinions of academics, language services providers (LSPs) and transcreation experts. The different positions collected in this section are compared and discussed in order to better define transcreation and avoid any further misunderstanding about the practice. Lastly, the first chapter analyses the role of the transcreation expert by explaining in detail the four main skills it requires and the reasons for its increasing importance in the global market. The second chapter examines advertising and promotional materials, i.e. the kinds of texts to which transcreation applies. Not only does it illustrate the difference between above-the-line and below-the-line communications, but it also covers the different media used in advertising. In addition, the analysis of a billboard and two web pages in their Italian transcreation will help to further clarify the difference between translation and transcreation, both in the approach to a text and in the actual workflow followed. The third and final chapter of the dissertation, which entails the English to Italian transcreation of five different print ads performed by this author, aims to show how transcreation works in practice. By highlighting the main strategies used and difficulties encountered, it will also contribute to the notion of transcreation as a hybrid practice – something halfway between translation and copywriting, performed by professionals who possess the skills of both translators and copywriters.
Resumo:
In questa tesi si è cercato di trovare le soluzioni più efficaci a supporto delle questioni legate all'ipertensione di seguito descritte attraverso l'uso di tecniche riguardanti l'intelligenza artificiale e l'Internet of Things. Uno tra i compiti dei medici che si occupano di curare i malati di ipertensione è quello di elaborare protocolli per quanto riguarda la prevenzione e la cura di questa malattia, i quali vengono periodicamente aggiornati. Per supportare ciò, il primo progetto sviluppato è consistito in un'analisi dei dati sul dataset ottenuto a partire dall'elaborazione delle risposte date ai questionari che sono stati distribuiti durante la Giornata Mondiale dell'Ipertensione. A partire da questo, si è cercato di evidenziare la classe di persone che con più probabilità sono malate di ipertensione in modo tale che le linee guida aggiornate si concentrino maggiormente su costoro. La seconda questione affrontata è che non sempre le cure che vengono prescritte sono efficaci, talvolta a causa del medico, talvolta a causa del paziente. Si rende perciò necessario fornire ai pazienti degli strumenti che li aiutino direttamente nella cura della loro malattia. Devono avere anche lo scopo di aiutare il medico nel suo lavoro di monitoraggio periodico delle condizioni di salute del paziente, perché possa avere realmente il polso della situazione. Per fare questo, il secondo progetto ha riguardato lo sviluppo di un chatbot disponibile sulla piattaforma di messaggistica istantanea Telegram ad uso dei malati di ipertensione. Questo assistente virtuale permette loro di registrare le misurazioni di pressione che settimanalmente devono effettuare e ricorda loro di farlo quando passa troppo tempo dall'ultima misurazione. Il sistema permette inoltre di visualizzare medie e grafici delle misurazioni che sono state raccolte cosicché il medico può affidarsi ad uno strumento più evoluto del semplice libretto diario in cui il paziente annota tutte le misurazioni.
Resumo:
Lo scopo di questa tesi è quello di verificare il corretto dimensionamento dei cuscinetti e delle guide lineari di un gruppo all’interno di una macchina automatica brevettata e realizzata da Manz Srl, azienda in collaborazione con la quale è stato svolto il progetto. La macchina automatica in esame è parte di una linea di produzione di batterie rettangolari a partire da nastri di materia prima e impiega l’innovativo processo di wound stacking. Per eseguire la verifica dei componenti è stato necessario effettuare una simulazione dinamica con il software MSC Adams, grazie al quale si sono potute calcolare le reazioni vincolari. In parallelo al modello Adams, è stato realizzato anche un modello MATLAB, con cui poter confrontare i risultati del software multibody per validarli. Stabiliti i periodi previsti di manutenzione della linea e un coefficiente di sicurezza richiesto, si sono individuati i componenti che non rispettavano le specifiche dei progettisti. Alla fine della tesi si propongono anche delle soluzioni per la sostituzione di alcuni componenti.
Resumo:
Questa tesi sostiene l'efficacia delle immagini satellitari per monitorare e valutare lo stato di conservazione dei siti archeologici soggetti a minacce antropiche, facendo riferimento alla situazione di crisi che è in atto in Siria a causa della guerra civile. Sono descritti nello specifico i vantaggi e i limiti del loro uso per riconoscere e seguire l’evoluzione dei saccheggi e delle altre forme di danno: in particolare vengono valutati i danni presenti su 68 tell pre-classici situati nel nord della Siria. È stato utilizzato un approccio foto interpretativo mediante il software QGIS, confrontando immagini satellitari provenienti da piattaforme open source quali Google, Bing, Esri con immagini d’archivio risalenti al 2010. Sono state effettuate diverse analisi volte a mappare la distribuzione dei danni sul territorio e stimarne l’incremento avvenuto tra il 2014 e il 2019, sottolineando l’impatto della militarizzazione e degli scavi clandestini. Sono state inoltre acquistate due immagini ad altissima risoluzione del satellite WorldView-2 per fare un riconoscimento semiautomatico dei cambiamenti avvenuti dal 2010 al 2020 su due dei tell appartenenti all’area di indagine, attraverso l’uso del software ENVI: dopo avere eseguito le opportune correzioni geometriche e atmosferiche è stata effettuata l’analisi delle componenti principali (PCA) ottenendo due immagini raster nelle quali vengono evidenziate le fosse di saccheggio e i danni compiuti sopra i due tell. Questo approccio ha consentito di individuare con maggiore chiarezza le caratteristiche che non erano altrettanto ben visibili nelle immagini rese disponibili dalle fonti open source. I risultati ottenuti dimostrano l’importanza delle immagini satellitari che rappresentano una fonte oggettiva di informazioni per avere una stima dei danni al suolo e possono aiutare le autorità competenti a prendere le misure necessarie per prevenire un'ulteriore diffusione del saccheggio e delle altre forme di danno.
Resumo:
Nel seguente lavoro di tesi, l’analisi dell’efficienza idraulica è stata condotta sulla base dei tradizionali parametri di simulazione di una rete idrica, come carichi idraulici ai nodi e portate erogate, ma sfruttando l’ausilio di un indice di performance di rete sintetico e globale, ovvero l’Indice di resilienza, introdotto da Todini (2000; 2016). Infatti, tale indice, rientrando tra i parametri con cui valutare lo stato complessivo di “benessere idraulico” di una rete, ha il vantaggio di poter fungere da criterio di selezione di eventuali interventi migliorativi da operare sulla rete stessa. L’analisi si è concentrata sull’utilizzo dell’Indice di resilienza come strumento per la misura delle prestazioni di una rete di distribuzione idrica semplificata, utilizzata come caso studio: per far ciò, si sono messi a confronto i risultati relativi a diversi scenari, ottenuti simulando la rottura in successione delle tubazioni della rete, oppure ipotizzando incrementi di richiesta idrica ai nodi. In generale, i risultati delle simulazioni idrauliche, effettuate con l’ausilio combinato dei software di calcolo EPANET 2.2 e Matlab, hanno mostrato che la resilienza può essere utilizzata per quantificare la robustezza di una rete idrica, presentando forti correlazioni con le pressioni ai nodi. Durante il corso di queste analisi, si è anche voluto mostrare lo sviluppo analitico subito nel tempo dalla formula dell’Indice di resilienza, della quale in principio era stata proposta una formulazione pensata per l’approccio Demand Driven, poi estesa all’approccio di modellazione Pressure Driven. L’intento finale dell’elaborato è stato quello di capire tramite quali mezzi poter migliorare la resilienza del sistema in esame: è emerso che la soluzione ottimale è quella di sfruttare gli effetti benefici derivanti dall’azione combinata della sostituzione dei diametri e del risparmio idrico derivante dalla riduzione delle perdite idriche e degli sprechi nei consumi idropotabili.