640 resultados para Prestazioni dirigibilicaratteristiche dirigibilistoria dirigibili
Resumo:
Negli ultimi decenni la necessità di salvaguardare l’ambiente ha portato ad un importante sviluppo dei processi catalitici con particolare attenzione agli aspetti di sostenibilità e impatto ambientale. Le nanoparticelle metalliche, note per le ottime proprietà catalitiche, ricoprono un ruolo fondamentale nel settore della catalisi. Al fine di innescare effetti sinergici e ottenere catalizzatori più performanti, la ricerca si sta orientando verso lo studio di nanoparticelle bimetalliche o multicomponente. Questo lavoro di tesi presenta la sintesi di nanoparticelle di Au, Pt e AuPt applicabili in catalisi e preparate mediante un processo a basso impatto ambientale assistito da microonde. Un’estesa caratterizzazione chimicofisica dei prodotti (DLS/ELS, UV-VIS, ICP-OES, XRD; TEM-EDS) ha consentito di ottimizzare le sintesi rispetto a distribuzione granulometrica, stabilità colloidale, resa di reazione e composizione di fase. Per AuPt NPs si sono sviluppate due preparazioni finalizzate all’ottenimento di diverse nanostrutture, core-shell e leghe. Infine, le prestazioni catalitiche dei campioni preparati sono state valutate mediante idrogenazione di 4-nitrofenolo (4-NP) a 4-amminofenolo (4-AP) in presenza di NaBH4, una reazione modello utilizzata per testare l'attività catalitica di nanometalli. Il campione in lega, Au97.5Pt2.5, e il campione core-shell, Au90@Pt10, hanno evidenziato effetti sinergici positivi con una migliore attività catalitica rispetto ai monometalli.
Resumo:
I compositi rinforzati con fibre di carbonio (CFRC) stanno sempre più sostituendo i materiali convenzionali in applicazioni che necessitano di alte prestazioni meccaniche, grazie alla loro leggerezza e alle eccellenti proprietà meccaniche. Dato l'enorme incremento della loro produzione e delle loro applicazioni, uno dei principali problemi risiede nel loro smaltimento, sia a fine vita che degli scarti e sfridi di lavorazione. Inoltre, la produzione di fibre di carbonio (CF) necessita di un elevato fabbisogno energetico (183-286 MJ/kg), pertanto la possibilità di recupero dei compositi in ottica di riutilizzo delle CF sembra essere un'opzione promettente in termini di sostenibilità ed economia circolare. Nell’ottica di identificare una metodologia per recuperare e riciclare questi materiali, il lavoro della presente tesi di laurea sperimentale, svolto in collaborazione con Leonardo SpA, è stato quello di studiare e ottimizzare il processo di pirogassificazione su CRFP aeronautici.
Resumo:
I raggi cosmici sono una fonte naturale di particelle ad alta energia di origine galattica e extragalattica. I prodotti della loro interazione con l’atmosfera terrestre giungono fino alla superficie terrestre, dove vengono rilevati dagli esperimenti di fisica delle particelle. Si vuole quindi identificare e rimuovere questo segnale. Gli apparati sperimentali usati in fisica delle particelle prevedono dei sistemi di selezione dei segnali in ingresso (detti trigger) per rigettare segnali sotto una certa soglia di energia. Il progredire delle prestazioni dei calcolatori permette oggi di sostituire l’elettronica dei sistemi di trigger con implementazioni software (triggerless) in grado di selezionare i dati secondo criteri più complessi. TriDAS (Triggerless Data Acquisition System) è un sistema di acquisizione triggerless sviluppato per l’esperimento KM3NeT e utilizzato recentemente per gestire l’acquisizione di esperimenti di collisione di fascio ai Jefferson Lab (Newport News, VA). Il presente lavoro ha come scopo la definizione di un algoritmo di selezione di eventi generati da raggi cosmici e la sua implementazione come trigger software all’interno di TriDAS. Quindi si mostrano alcuni strumenti software sviluppati per costruire un ambiente di test del suddetto algoritmo e analizzare i dati prodotti da TriDAS.
Resumo:
In questa tesi viene trattata la problematica di determinare le migliori K soluzioni per due problemi di ottimizzazione, il Knapsack Problem 0-1 e lo Shortest Path Problem. Tali soluzioni possono essere impiegate all'interno di metodi di column generation per la risoluzione di problemi reali, ad esempio Bin Packing Problems e problemi di scheduling di veicoli ed equipaggi. Sono stati implementati, per verificarne sperimentalmente le prestazioni, nuovi algoritmi di programmazione dinamica, sviluppati nell’ambito di un programma di ricerca. Inizialmente, per entrambi i problemi, è stato descritto un algoritmo che determinasse le migliori K soluzioni per ogni possibile sottoproblema; partendo da uno zaino con capacità nulla, nel caso del Knapsack Problem 0-1, e dalla determinazione di un cammino dal vertice sorgente in se stesso per lo Shortest Path Problem, l’algoritmo determina le migliori soluzioni di sottoproblemi via via sempre più grandi, utilizzando le soluzioni costruite per gli stati precedenti, fino a ottenere le migliori soluzioni del problema globale. Successivamente, è stato definito un algoritmo basato su un approccio di ricorsione backward; in questo caso si utilizza una funzione ricorsiva che, chiamata a partire dallo stato corrispondente al problema globale, viene richiamata solo sugli stati intermedi strettamente necessari, e per ognuno di essi non vengono determinate soluzioni superflue.
Resumo:
I recenti sviluppi nel campo dell’intelligenza artificiale hanno permesso una più adeguata classificazione del segnale EEG. Negli ultimi anni è stato dimostrato come sia possibile ottenere ottime performance di classificazione impiegando tecniche di Machine Learning (ML) e di Deep Learning (DL), facendo uso, per quest’ultime, di reti neurali convoluzionali (Convolutional Neural Networks, CNN). In particolare, il Deep Learning richiede molti dati di training mentre spesso i dataset per EEG sono limitati ed è difficile quindi raggiungere prestazioni elevate. I metodi di Data Augmentation possono alleviare questo problema. Partendo da dati reali, questa tecnica permette, la creazione di dati artificiali fondamentali per aumentare le dimensioni del dataset di partenza. L’applicazione più comune è quella di utilizzare i Data Augmentation per aumentare le dimensioni del training set, in modo da addestrare il modello/rete neurale su un numero di campioni più esteso, riducendo gli errori di classificazione. Partendo da questa idea, i Data Augmentation sono stati applicati in molteplici campi e in particolare per la classificazione del segnale EEG. In questo elaborato di tesi, inizialmente, vengono descritti metodi di Data Augmentation implementati nel corso degli anni, utilizzabili anche nell’ambito di applicazioni EEG. Successivamente, si presentano alcuni studi specifici che applicano metodi di Data Augmentation per migliorare le presentazioni di classificatori basati su EEG per l’identificazione dello stato sonno/veglia, per il riconoscimento delle emozioni, e per la classificazione di immaginazione motoria.
Resumo:
Il Modello Standard è attualmente la teoria che meglio spiega il comportamento della fisica subnucleare, includendo la definizione delle particelle e di tre delle quattro forze fondamentali presenti in natura; risulta però una teoria incompleta sulle cui integrazioni i fisici stanno lavorando in diverse direzioni: uno degli approcci più promettenti nella ricerca di nuova fisica risulta essere quello delle teorie di campo efficaci. Il vertice di interazione del processo di produzione di coppie di quark top dello stesso segno a partire da protoni è fortemente soppresso nel Modello Standard e deve quindi essere interpretato con le teorie di campo efficaci. Il presente elaborato si concentra su questo nuovo approccio per la ricerca di quark top same-sign e si focalizza sull’utilizzo di una rete neurale per discriminare il segnale dal fondo. L’obiettivo è capire se le prestazioni di quest’ultima cambino quando le vengono fornite in ingresso variabili di diversi livelli di ricostruzione. Utilizzando una rete neurale ottimizzata per la discriminazione del segnale dal fondo, le si sono presentati tre set di variabili per l’allenamento: uno di alto livello, il secondo strettamente di basso livello, il terzo copia del secondo con aggiunta delle due variabili principali di b-tagging. Si è dimostrato che la performance della rete in termini di classificazione segnale-fondo rimane pressoché inalterata: la curva ROC presenta aree sottostanti le curve pressoché identiche. Si è notato inoltre che nel caso del set di variabili di basso livello, la rete neurale classifica come input più importanti gli angoli azimutali dei leptoni nonostante questi abbiano distribuzioni identiche tra segnale e fondo: ciò avviene in quanto la rete neurale è in grado di sfruttare le correlazioni tra le variabili come caratteristica discriminante. Questo studio preliminare pone le basi per l’ottimizzazione di un approccio multivariato nella ricerca di eventi con due top dello stesso segno prodotti a LHC.
Resumo:
L'Electron-Ion Collider è un futuro acceleratore di particelle che approfondirà la nostra conoscenza riguardo l'interazione forte tramite la collisione di elettroni con nuclei e protoni. Uno dei progetti attualmente considerati per la costruzione del rivelatore, il dual-radiator RICH, prevede l'impiego di due radiatori Cherenkov, sui quali verranno montati dei fotorivelatori per rilevare l'emissione della luce Cherenkov e risalire alla massa delle particelle. L'opzione di base per questi rivelatori sono i sensori al silicio SiPM. Questo lavoro di tesi si basa sullo studio delle prestazioni di un prototipo per l'acquisizione dei dati rilevati dai SiPM che sfrutta l'effetto termoelettrico per raffreddare la zona in cui sono situati i sensori. L'analisi dei dati acquisiti ha portato alla conclusione che le prestazioni del prototipo sono confrontabili con quelle misurate all'interno di una camera climatica quando si trovano alla stessa temperatura.
Resumo:
I semiconduttori organici presentano un enorme potenziale nella realizzazione di dispositivi scalabili su larga area su substrati flessibili, e depositabili da soluzione con tecniche a basso costo, adatti alla rivelazione diretta di radiazione ionizzante. Nella seguente tesi sono descritti i processi di fabbricazione e analisi delle prestazioni di transistor organici a effetto di campo per la rivelazione diretta di raggi X. Questi sono stati realizzati utilizzando due diversi semiconduttori organici come materiali attivi, bis-(triisopropylsilylethynyl)-pentacene, in breve TIPS-pn, e un suo derivato, bis-(triisopropylgermylethynyl)-pentacene, in breve TIPG-pn. Sono in particolare descritte la deposizione del semiconduttore organico, la caratterizzazione elettrica dei transistor fabbricati, con estrapolazione dei parametri di trasporto caratteristici, e la loro risposta quando sottoposti a radiazione X. Sono infine confrontate le performance dei rivelatori, suddivise per materiale attivo.
Resumo:
La radioterapia è una terapia medica molto utilizzata in campo oncologico. I diversi tipi di radiazione e di tecniche permettono di trattare, con diversi fini, una vasta gamma di neoplasie. Secondo i dati dell’AIRO, l’Associazione Italiana di Radioterapia e Oncologia clinica, nel 2020 sono stati trattati con la radioterapia circa 100mila pazienti in Italia, che conta 183 centri di radioterapia tra pubblici e privati, cioè circa 3 centri per milione di abitanti. La Società Europea di Radioterapia Oncologica, basandosi sullo studio ESTRO-HERO del 2014, suggerisce come parametro di confronto a livello nazionale o internazionale il numero di apparecchiature di radioterapia per milione di abitanti, e le Direttive Europee ne raccomandano un valore minimo di 7 unità. In questo elaborato, espongo l’evoluzione della radioterapia tramite la presentazione delle sue diverse tipologie, per poi concentrarmi sulla irradiazione corporea totale (Total Body Irradiation – TBI) nel caso studio della leucemia linfoblastica acuta (LLA). Il Capitolo 1 introduce la radioterapia e la sua principale suddivisione in esterna e interna, con i relativi sottogruppi. Viene poi spiegato come si valuta il volume bersaglio e vengono presentati il personale e le fasi del trattamento. Il Capitolo 2 introduce alla leucemia e alla LLA. Viene poi spiegato il trattamento di trapianto e quello di condizionamento. Infine, espongo la tecnica della TBI, le sue prestazioni ed i suoi limiti. Nelle conclusioni e future direzioni, valuto il problema della tossicità ed espongo le principali evoluzioni nell’uso della TBI.
Resumo:
L’immunoterapia è una delle tecniche più all’avanguardia per la lotta contro il cancro e si basa sull’aumento delle prestazioni del sistema immunitario attraverso anticorpi monoclonali (ovvero farmaci immunoterapici). Grazie a questi, la terapia garantisce l’inibizione dei checkpoint immunologici, che permettono alle cellule del sistema immunitario di riconoscere la presenza del tumore e aggredirlo fino a eradicarlo. La tesi propone una soluzione frazionaria al problema della crescita tumorale, basandosi su un modello di Kuznetsov esteso dove viene presa in considerazione anche il parametro di concentrazione di Interleuchina-2. Tramite un’analisi di stabilità del modello proposto è possibile arrivare a un valore di sigma, ovvero il rateo di cellule effettrici, per il quale il sistema delle cellule tumorali viene completamente eradicato. Una volta trovata la condizione di stabilità e calcolato il valore di alpha (ordine della derivata frazionaria) che approssima al meglio la crescita tumorale nel caso reale, viene proposto un sistema di controllo automatico in retroazione basato sul numero di cellule effettrici per automatizzare il processo immunoterapico.
Resumo:
La Sclerosi Multipla (SM) è una malattia neurodegenerativa che colpisce la mielina che riveste i neuroni, indebolendo così la trasmissione del segnale. I sintomi più comuni sono intorpidimento della sensazione tattile e difficoltà motoria, accompagnato da stanchezza e altri sintomi. Per la diagnosi della malattia si utilizza la Risonanza Magnetica (RM) per visualizzare la presenza delle lesioni e la Risonanza Magnetica Funzionale (fRM) per valutare il grado di attivazione delle aree cerebrali. In ambito medico l’utilizzo della RM, in supporto alle altre tecniche di analisi, ha permesso di migliorare e velocizzare la diagnosi e la prognosi della SM. Procedendo all’acquisizione di immagini RM è possibile notare la presenza delle lesioni e controllarne l’evoluzione. Infatti, a seguito della scoperta di lesioni, in base alla gravità e alla tipologia di lesione formatasi, è possibile stabilire il trattamento farmacologico da seguire. In particolare, per il caso dell’atrofia cerebrale la RM ha consentito di visualizzare le aree cerebrali affette e valutare la variabilità dei risultati del confronto tra carico lesionale e atrofia per le prestazioni cognitive. La fRM ha inoltre permesso di poter valutare i cambiamenti dei flussi ematici cerebrali e di visualizzare quindi le zone più o meno colpite dalla patologia. Questa tecnica di imaging funzionale è in grado di valutare le aree cerebrali preservate e promuovere un trattamento mirato per le aree affette. Studiando i flussi ematici si possono ricavare delle mappe spaziali che permettono di visualizzare nell’insieme la malattia. Per lo studio dell’affaticamento è stata utile la fRM poiché ha permesso di rilevare le aree che si sono attivate durante l’esecuzione del task motorio. A seguito di questi esami si è concluso che in presenza di SM si attivano aree cerebrali che in condizioni normali non si attiverebbero, comportando così un affaticamento del soggetto.
Resumo:
L'odierna volatilità dei costi delle materie prime e il generale aumento dei prezzi legati all'energia, rendono necessario lo sviluppo di strategie atte a contenerne le conseguenze, in modo particolare all'interno delle innumerevoli realtà industriali che risultano inevitabilmente coinvolte. Il seguente elaborato è incentrato sull’analisi del funzionamento di una pressa per il colaggio di articoli sanitari in ceramica e sulla ricerca di soluzioni costruttive alternative del telaio della macchina che garantiscano le medesime prestazioni dell’originale ma con un’eventuale diminuzione sul costo di produzione. Ai fini dell’analisi vengono sviluppati una serie di modelli matematici (sia analitici che basati sui metodi numerici) con l’obiettivo di studiare lo stato deformativo e tensionale della macchina, valutare le condizioni di carico a cui sono soggette le varie giunzioni (saldate e bullonate) e individuare eventuali criticità. Il medesimo approccio è utilizzato nell’analisi delle soluzioni alternative sviluppate all’interno dell’elaborato. Su di esse viene poi svolta una stima dei costi di produzione da confrontare con i costi relativi agli equivalenti semilavorati presenti nella struttura originale, in modo da individuare e valutare un eventuale vantaggio in termini economici.
Resumo:
Il trasformatore è uno degli elementi più importanti di una rete di trasmissione; essendo il tramite fra reti di alta e media tensione, il suo corretto funzionamento garantisce l’alimentazione di tutti i dispositivi e carichi connessi alla linea. Oltre a questo, il trasformatore è anche l’elemento più costoso di tutta la linea elettrica; la sua manutenzione è di vitale importanza per evitare costi elevati per la sostituzione e disagi lungo la linea. Qui entra in gioco il ruolo della diagnostica; attraverso misure periodiche e mirate sul trasformatore è possibile agire tempestivamente ed evitare tutti i fenomeni precedentemente elencati. Nell’elaborato si tratterà l’analisi del trasformatore elettrico trifase durante il suo funzionamento, evidenziando i sottocomponenti e le rispettive criticità; inoltre, verranno mostrate le varie tecniche di diagnostica del trasformatore, in modo tale da poter estrarre un indice legato allo stato di vita, ossia l’Health Index. Ad oggi esistono diverse tecniche di approccio al calcolo dell’Health Index, quella che viene presentata è una tecnica del tutto innovativa, ossia sviluppare una rete neurale artificiale (Artificial Neural Network, ANN) in grado di prevedere lo stato del trasformatore basandosi su misure effettuate sullo stesso. Dunque, verranno presentante le basi per lo sviluppo di una rete neurale, partendo dall’analisi e formattazione dei dati, fino alla fase di ottimizzazione delle prestazioni. Infine, si attraverseranno tutte le fasi intermedie di realizzazione del progetto da cui l’elaborato prende il titolo; osservando l’evoluzione di una rete neurale che si trasforma da un programma scritto in ambiente Python a una applicazione pronta all’uso per gli operatori durante le operazioni di diagnostica.
Resumo:
I metodi utilizzati per la stima delle portate fluviali in bacini idrografici non strumentati fanno uso di tecniche di regionalizzazione con l’obiettivo di stimare i parametri, attraverso dei bacini di riferimento, da implementare nei modelli idrologici. Risulta, quindi, di fondamentale importanza la selezione dei bacini idrografici donatori. La scelta dei bacini di riferimento avviene tramite delle misure di somiglianza che tengono conto di caratteristiche del territorio. Il limite principale di tali approcci è la mancata considerazione della struttura della rete idrografica e del loro eventuale annidamento. Si definiscono bacini idrografici annidati due o più bacini i cui le stazioni idrometriche sono posizionate lungo la stessa ascissa fluviale oppure presentano un'area comune drenata da entrambi i bacini. Skøien et al. (2006) afferma che i bacini a valle e a monte del bacino preso in esame dovrebbero essere trattati differentemente. Il presente lavoro intende contribuire a superare detto limite. È stata stabilita, un’equazione empirica a due parametri che attraverso la distanza interbacino d e il grado di annidamento NI, definisce la differenza di portata idrica ∆Q in una coppia di bacini annidati. I valori dei parametri α e λ sono stati definiti mediante calibrazione con set di dati relativi a portate massime annuali di medie giornaliere e massimi annuali istantanei. Sono stati analizzati i corsi d’acqua in Italia, Austria e Polonia mentre a scala di bacino il Fiume Po, il Fiume Danubio, il Fiume Reno e il Fiume Oder. Attraverso la massimizzazione di una funzione obiettivo di tipo quadratico sono state verificate le prestazioni del metodo proposto. La differenza di portate ∆Q ricavata è possibile definirla come una misura di somiglianza la quale potrebbe, attraverso caratteristiche geospaziali facilmente reperibili, definire i bacini di riferimento da utilizzare nei metodi di regionalizzazione dei deflussi fluviali.
Resumo:
Per mitigare il notevole aumento di emissioni di gas serra, molti studi si stanno focalizzando sulle membrane a trasporto facilitato per la separazione e la cattura di CO2. In particolare, le tecnologie di Carbon Capture and Storage (CCS) hanno ridestato interesse basandosi principalmente sulla cattura dell’anidride carbonica. L’obiettivo di questo studio è stato di migliorare le prestazioni di selettività nell’Aquivion, membrana ionomerica dell’acido perfluorosolfonico. Gli ottimi valori di permeabilità che raggiunge hanno portato quindi a focalizzare le ricerche sul miglioramento della capacità selettiva tra CO2 e N2. Infatti, la permeabilità e la selettività sono considerati parametri di trade-off, all’aumento di uno corrisponde la diminuzione dell’altro. Inoltre, le buone prestazioni delle membrane a trasporto facilitato in presenza di gruppi amminici hanno portato al tentativo di associare ad un materiale come l’Aquivion, dalla buona conduttività protonica, la Polivinilammina. Le ammine in membrane a trasporto facilitato sono infatti in grado di legare selettivamente l’anidride carbonica. Il presente lavoro si è inizialmente focalizzato sulla purificazione della Polivinilammina e sull’accoppiamento delle due membrane. In seguito alla realizzazione, i film sono stati caratterizzati mediante spettroscopia FTIR-ATR e infine testati in condizioni di umidità con l’utilizzo di un permeometro. È infatti ampiamente studiato come migliorare la permeabilità dell’Aquivion all’aumentare dell’umidità. In conclusione, in condizioni di alta adesione della Polivinilammina all’Aquivion la selettività ad alte umidità è aumentata rispetto ai valori di letteratura in articoli condizioni.