999 resultados para Fagnano, Giulio Carlo, conte di, marchese de Toschi, 1682-1766.
Resumo:
The established isotropic tomographic models show the features of subduction zones in terms of seismic velocity anomalies, but they are generally subjected to the generation of artifacts due to the lack of anisotropy in forward modelling. There is evidence for the significant influence of seismic anisotropy in the mid-upper mantle, especially for boundary layers like subducting slabs. As consequence, in isotropic models artifacts may be misinterpreted as compositional or thermal heterogeneities. In this thesis project the application of a trans-dimensional Metropolis-Hastings method is investigated in the context of anisotropic seismic tomography. This choice arises as a response to the important limitations introduced by traditional inversion methods which use iterative procedures of optimization of a function object of the inversion. On the basis of a first implementation of the Bayesian sampling algorithm, the code is tested with some cartesian two-dimensional models, and then extended to polar coordinates and dimensions typical of subduction zones, the main focus proposed for this method. Synthetic experiments with increasing complexity are realized to test the performance of the method and the precautions for multiple contexts, taking into account also the possibility to apply seismic ray-tracing iteratively. The code developed is tested mainly for 2D inversions, future extensions will allow the anisotropic inversion of seismological data to provide more realistic imaging of real subduction zones, less subjected to generation of artifacts.
Resumo:
Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.
Resumo:
La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.
Resumo:
Sulla base di una riflessione sull’utilità delle note del traduttore si è cercato di capire a che cosa fossero necessarie: sono davvero da considerare come un elemento estraneo al testo? Perché il traduttore decide di uscire dal suo ruolo di terzo, perdendo l’anonimato che gli fornisce il suo ruolo di semplice mediatore? Per rispondere a queste domande, ho deciso di creare un corpus di letteratura italiana in traduzione francese rilevando sistematicamente in quarantadue testi contemporanei le note inserite. In un secondo tempo ho classificato sia le parole che hanno dato luogo ad una nota che la tipologia di note fornite. Questa indagine mi ha permesso di avere una migliore idea delle modalità di inserimento di informazioni e della loro importanza.
Resumo:
Per contrastare gli effetti dell’ormai inequivocabile cambiamento climatico che sta affliggendo il pianeta, nel 2015 l’Accordo di Parigi ha fissato gli obiettivi per intraprendere il processo di decarbonizzazione del settore energetico a livello mondiale. Nell’operare tale transizione risulta fondamentale individuare soluzioni alternative, che conducano principalmente all’abbattimento delle emissioni di gas serra ed altri inquinanti, e che siano allo stesso tempo in grado di assicurare il proseguimento del progresso economico. L’idrogeno, compatibile con l’impiego in un ampio ventaglio di applicazioni, può assumere un ruolo determinante nel raggiungimento di questi traguardi. Nel presente elaborato viene dunque delineata una panoramica complessiva inerente a tale tematica, dando rilievo alle tecnologie di generazione dell'idrogeno a basso impatto ambientale, in particolare quelle riguardanti l’elettrolisi dell’acqua, realizzabili attraverso l’impiego di energia elettrica generata da fonti rinnovabili. La trattazione prosegue con la presentazione del caso di studio, incentrato sull’utilizzo di idrometano, una miscela di gas naturale addizionata ad idrogeno, per la produzione di energia tramite l’impiego di quest’ultimo all’interno di un gruppo turbogas. Viene quindi eseguita una valutazione tecnico-economica, in riferimento all’industria cartiera del gruppo Pro-Gest di Mantova, riguardante la convenienza dell’installazione di un impianto per la produzione locale di idrogeno verde, destinato ad autoconsumo all’interno di una centrale cogenerativa. Il raggiungimento della competitività economica di soluzioni di natura simile a quelle esposte in questo elaborato, basate sullo sfruttamento di risorse rinnovabili, rappresenterebbe un grande passo in avanti per quanto riguarda la realizzabilità di una completa transizione ad un sistema energetico più sostenibile.
Resumo:
In questo elaborato di tesi vengono presentati la ricerca e il lavoro che hanno portato all’ideazione e sviluppo di CirculAR. CirculAR consiste in un dispositivo per la realtà aumentata, che assiste i conducenti di veicoli a due ruote, quali biciclette, monopattini e motocicli, proiettandogli informazioni utili per una guida in sicurezza. L’energia che alimenta il dispositivo per la realtà aumentata viene generata, in modo sostenibile, dalla conversione in energia elettrica dell’energia cinetica ottenuta dalle vibrazioni che si scaricano al telaio, originate dal contatto tra manto stradale e veicolo stesso. Il sistema - prodotto è composto, infatti, da due dispositivi differenti, un wearable device e un generatore elettrico, che cooperano per il raggiungimento di una Realtà Aumentata più sostenibile ed innovativa. Per lo sviluppo di CirculAR sono state prese in considerazione tecnologie innovative ad oggi oggetto di grande ricerca e interesse scientifico; per questo studio in particolare, si è deciso di conciliare queste tecnologie con una progettazione mirata alla semplificazione ed alla specializzazione dei singoli componenti per garantirne un generale livello di forte innovazione tecnologica ed, al contempo, una riduzione del costo complessivo di vendita del prodotto. Il connubio di queste tecnologie ha permesso di realizzare due dispositivi innovativi sia da un punto di vista tecnologico che da un punto di vista della sostenibilità, che possono rappresentare un modello per una futura generazione di wearable device sostenibile.
Resumo:
Il presente lavoro di tesi riguarda lo studio di fattibilità e valutazione comparativa di soluzioni impiantistiche e di processo finalizzate all’ottimizzazione dell’attuale sezione di distillazione di un impianto di produzione dei catalizzatori Ziegler-Natta. Il TiCl4 figura tra i principali reagenti impiegati nella sintesi dei catalizzatori, ma la tecnologia attualmente in uso non ne consente il totale recupero. A partire da una panoramica dell’intero processo produttivo dei catalizzatori Ziegler-Natta, si sono analizzate le criticità della sezione di distillazione e si sono valutate possibili soluzioni. Con l’obiettivo di ottenere un significativo recupero del TiCl4 rispetto alla situazione attuale, lo studio di fattibilità si è orientato verso un processo di distillazione con solvente. Al fine di valutare l’efficacia di tale soluzione, si è utilizzato il programma Aspen Plus V12. I principali composti coinvolti nel processo, che verranno implementati nell’ambiente di simulazione, sono: il TiCl4, il TiCl3(OC2H5) e un solvente. Quest’ultimo è il risultato di una ricerca tra sostanze con proprietà idonee al processo di distillazione studiato. Per ognuno dei composti sono richieste le principali proprietà termo-fisiche. Tuttavia, per il TiCl3(OC2H5) non vi sono informazioni disponibili presso le banche dati e la molecola è termicamente instabile. È stato perciò impiegato un particolare approccio ai contributi di gruppo per stimarne le proprietà d’interesse. Il solvente adottato è costituito da una miscela di isomeri: sono state effettuate delle misurazioni al fine di confermare un composto puro per l’ambiente di simulazione. Le simulazioni di processo hanno permesso di condurre con successo lo studio di fattibilità. Ulteriori proposte impiantistiche e per apparecchiature sono state valutate a completamento di tale studio. Il presente lavoro è stato svolto presso il centro Ricerche e Sviluppo “Giulio Natta” nella sede di Ferrara di LyondellBasell Industries.
Resumo:
Questo elaborato presenta e discute le osservazioni svolte durante il rilevamento geologico dell’area di Passo Rolle, compilate in una carta geologica corredata di due sezioni geologiche, e alcune ricostruzioni del paleosforzo elaborate a partire dall’evidenza mesostrutturale della deformazione fragile che caratterizza l’area. Queste analisi consentono una migliore comprensione della sequenza litostratigrafica permo-triassica delle Dolomiti e forniscono informazioni sull’evoluzione strutturale della zona. La stratigrafia affiorante rappresenta un intervallo temporale che si estende dal Permiano, con il Piastrone Porfirico Atesino, le Arenarie di Val Gardena e la Formazione a Bellerophon, fino al tetto del Triassico inferiore, con la Formazione di Werfen. La sequenza è tagliata da un fascio di faglie normali subverticali orientate NNW-SSE che ribassano le unità triassiche ad est rispetto alle unità permiane ad ovest. Queste strutture appartengono alla Linea di Passo Rolle, una faglia plurichilometrica orientata N-S, tagliata dal Sovrascorrimento neogenico della Valsugana. La faglia di Passo Rolle si localizzò inizialmente nel Permiano ed è stata successivamente riattivata nel Mesozoico e nel Cenozoico. Dalla carta e dalle sezioni geologiche prodotte risulta evidente tale riattivazione. Sulla base di analisi mesostrutturali sono state identificate due fasi deformative che hanno coinvolto l’area: entrambi transpressive con direzione di raccorciamento principale NNW-SSE e WNW-ESE. Il software Wintensor ha permesso una ricostruzione quantitativa dei regimi dei paleosforzi, sia in termini di tensore di stress ridotto che di magnitudo relativa. Conoscendo la deformazione post-collisionale neoalpina che ha caratterizzato il settore orientale delle Alpi Meridionali e sulla base delle osservazioni durante il rilevamento geologico, è stato possibile collegare le evidenze misurate con le fasi deformative Valsuganese (Miocene) e Schio-Vicenza (Messiniano-Pliocene).
Resumo:
L’idea alla base di questo elaborato finale nasce principalmente dall’interesse verso lo stato dell’arte attuale per quanto riguarda l’utilizzo di materiali compositi in ambito aerospaziale. La grande potenzialità di questi materiali è oggigiorno ancora contrastata da forti limitazioni, come il costo elevato oppure il comportamento particolare della struttura interna. Quest’ultimo aspetto rappresenta, a livello macroscopico, la problematica cardine del presente studio: il comportamento meccanico di questi materiali a seguito di un impatto, con un focus particolare sugli effetti, all’apparenza trascurabili, di impatti a bassa energia. Si è scelto in particolare di analizzare gli sviluppi raggiunti dalla ricerca nei giunti incollati a giro singolo, una tipologia di giunzione caratterizzata da due componenti aderenti ed una sostanza adesiva a costituire la giunzione stessa. Il materiale composito più utilizzato per questo tipo di strutture è il Carbon Fiber Reinforced Polymer o CFRP. Il fulcro di questa tesi è sostanzialmente un’analisi di una serie di studi recenti sugli effetti di impatti in un giunto incollato in composito, valutato sia in maniera statica che ciclica; vengono inoltre descritti gli effetti di fattori ambientali come la temperatura e l’umidità, e riportate proposte presenti e future degli autori, come la ricerca di configurazioni alternative per il giunto oppure una serie di modifiche alle superfici, al fine di migliorare le prestazioni di questi componenti con soluzioni ottimizzate ed efficaci. In conclusione, si sintetizzano i risultati raggiunti da questi studi sperimentali, con l’intenzione di evidenziarne il progresso piuttosto che le limitazioni comparse e di contribuire alla transizione completa verso l’utilizzo dei materiali compositi, che acquisiranno sempre maggiore importanza nell’ingegneria dei materiali.
Resumo:
Il tema approfondito in questo elaborato è relativo a nuove forme di esperienze museali in grado di favorire una maggiore fruizione dei musei da parte dei visitatori portatori di disabilità sensoriali. L’obiettivo dello studio, reso possibile grazie alla collaborazione con il Comune di Riccione, l’Università di Bologna e il Museo del Territorio di Riccione, riguarda la riproduzione tattile 3D di alcuni manufatti di epoca romana rinvenuti nel territorio e l’implementazione di soluzioni di esplorazione dei modelli fisici con tecniche di realtà aumentata e feedback sonori per fornire al visitatore un’esperienza tattile/sensoriale sugli oggetti. La parte di competenza di questo elaborato riguarda principalmente due aspetti: il rilievo 3D effettuato su quattro diversi frammenti di due serie di lastre fittili, mediante l’utilizzo di scanner ad alta risoluzione e fotogrammetria digitale, e la successiva modellazione in ambiente digitale. Quest’ultima fase comporta l’elaborazione delle scansioni tramite software dedicati e la creazione di mesh per generare la stampa di copie fisiche 3D. In una fase successiva alla stampa 3D le copie saranno poi gestite con particolari tecnologie di esplorazione sensoriale che accompagneranno l’utente durante l’esperienza tattile con feedback sonori. La sperimentazione condotta in questa tesi vuole dimostrare come sia possibile portare ad una trasformazione del ruolo dei musei, da quello tradizionale di magazzino statico a quello di ambiente di apprendimento attivo a disposizione di tutti offrendo esperienze immersive ed educative.
Resumo:
Lo scopo di questo lavoro è lo sviluppo, mediante il linguaggio di programmazione Python, di un applicativo per il calcolo e la visualizzazione di frequenze naturali per strutture e cavità. L’applicativo consiste di un’interfaccia grafica e di una libreria nella quale si trovano le diverse tipologie di strutture e cavità presenti in letteratura. I vari sistemi possono essere vincolati da diverse condizioni al contorno e sono inoltre costituiti da materiali isotropi, nel caso di strutture, e fluidi, nel caso di cavità. La prima parte del lavoro comprende la codifica delle soluzioni analitiche per l’analisi modale. La seconda fase è, invece, incentrata sulla validazione del codice, utilizzando un software commerciale per la comparazione di frequenze naturali e forme dei modi.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.
Resumo:
Il progetto alla base della presente tesi è stato sviluppato all’interno di Raviplast, società cooperativa nata nel 2013 dall’intenzione di un gruppo di lavoratori e tecnici di grande professionalità di dare seguito ad una lunga storia industriale. Raviplast si occupa della produzione di imballaggi flessibili in polietilene a bassa densità (LDPE), in particolare sacchi collati, saldati, a valvola, a tasca, a bocca aperta, tubolari e cappucci monopiega. L’intera gamma di prodotti viene ottenuta attraverso un unico processo industriale cioè la co-estrusione a bolla di film. All’interno di questo elaborato di tesi verrà descritto come le proprietà meccaniche, termiche e chimiche di prodotti formati da polietilene a bassa densità vergine differiscano rispetto a quelle di un prodotto con percentuale di polietilene a bassa densità riciclato crescente. Nel corso dell’esperienza sono state indagate le caratteristiche del granulo di polimero vergine riciclato per verificare l’omogeneità di proprietà come temperatura di fusione, densità e melt flow index (MFI), e poter operare al meglio la produzione. Sul prodotto finito, sia vergine che rigenerato, sono state testate la trazione longitudinale e trasversale al dinamometro, la temperatura di fusione tramite calorimetria differenziale a scansione (DSC) e prove ad impatto tramite caduta di dardo. Le proprietà indagate sono state confrontate per valutare con occhio critico quali accorgimenti adottare nel corso della produzione.
Resumo:
In questo lavoro di tesi è stato approfondito il modello di coalescenza, ampiamente utilizzato in letteratura per descrivere la formazione di (anti)nuclei leggeri in collisioni ad alta energia negli acceleratori e di antinuclei cosmici, con applicazioni alle ricerche indirette di materia oscura nell’universo. Nello specifico, è stato studiato il parametro di coalescenza per (anti)nuclei con numero di massa A ≤ 4; utilizzando un fit ai dati dell’esperimento ALICE a LHC sulla dimensione della sorgente di protoni in collisioni pp a √s = 13 TeV, si è cercato di esplicitare la dipendenza del parametro di coalescenza dall’impulso trasverso. Dal confronto delle previsioni del modello così ottenuto con le misure del parametro di coalescenza raccolte da ALICE, si osserva che il parametro di coalescenza di d e 3He non segue l’andamento previsto. Questo risultato evidenzia quindi la necessità di rivedere il modello di sorgente adottato o i suoi limiti di applicazione a diversi sistemi di collisione. In vista della possibilità di implementare il meccanismo di formazione per coalescenza nei generatori Monte Carlo per la simulazione degli antinuclei, si è tentato di caratterizzare la sorgente di protoni attraverso l’utilizzo del generatore PYTHIA 8.3. In particolare, è stata effettuata un’analisi delle coordinate spaziali, della quantità di moto e del tempo di produzione dei protoni a rapidità centrale generati in 10^5 collisioni pp. I grafici ottenuti mostrano che la sorgente è sostanzialmente isotropa.
Resumo:
La Materia Oscura (Dark Matter, DM) deve il suo nome al fatto che non interagisce elettromagneticamente, ma solo gravitazionalmente e debolmente (proprietà che ne complica particolarmente la rivelazione). Molti sforzi, sia sperimentali che teorici, sono stati dedicati alla sua ricerca a tal punto da essere considerata uno dei più grandi misteri della fisica moderna. I candidati più promettenti a costituire la materia oscura sono da ricercarsi in teorie oltre il Modello Standard e fra essi figurano le WIMPs (Weakly Interacting Massive Particles). Poiché le particelle di DM sono caratterizzate da sezioni d’urto molto piccole, per poterle osservare si necessita di grandi rivelatori, ultrapuri e situati in ambienti a bassa radioattività. XENONnT è attualmente uno degli esperimenti più sensibili al mondo per la ricerca diretta di WIMPs, grazie all’utilizzo di una camera di proiezione temporale (TPC) a doppia fase (liquido-gas) che presenta una massa bersaglio di 5.9 t di xenon liquido (LXe). XENONnT mira a rilevare lo scattering di WIMPs contro i nuclei bersaglio, sfruttando i segnali osservabili di luce e carica prodotti dai rinculi nel LXe. Per raggiungere tale risultato sono fondamentali il sistema di veto di neutroni (Neutron Veto, NV) ed il sistema di veto di muoni (Muon Veto, MV): il NV ha lo scopo di rivelare i neutroni radiogenici provenienti dai materiali dell’esperimento mentre il MV (già impiegato in XENON1T) ha la finalità di eliminare il rumore di fondo dovuto ai raggi cosmici. L'obiettivo di questa tesi è lo studio degli eventi muone osservati dal MV ed il NV di XENONnT; misurarne il rate e verificare la congruenza dei risultati ottenuti con quanto atteso da simulazioni Monte Carlo. Questa prova ha costituito un'ulteriore verifica del corretto funzionamento dei sistemi di veto, ed ha permesso di approfondire la conoscenza sulla risposta del Neutron Veto al passaggio di un muone all’interno del suo volume attivo.