1000 resultados para Controllo attivo, sovralimentazione, motori aeronautici
Resumo:
OPERA è un esperimento installato ai Laboratori del Gran Sasso, lungo la linea del fascio di neutrini CNGS prodotto al CERN. Il suo scopo principale è osservare - per la prima volta in modo diretto - il fenomeno dell'oscillazione di neutrini muonici del CNGS, in neutrini-tau. L'esperimento è attualmente in fase di analisi dati. Accanto al canale di oscillazione dominante nu_mu--> nu_tau OPERA può studiare anche il canale nu_mu--> nu_e grazie all'ottima capacità di identificazione degli elettroni. OPERA utilizza un bersaglio attivo, finemente segmentato in moduli ("brick") costituiti da pile di fogli di emulsioni nucleare e lastre di piombo. Ogni "brick", il cui spessore è equivalente a 10 lunghezze di radiazione, è un rivelatore "stand-alone" attraverso il quale è possibile identificare e ricostruire gli sciami elettromagnetici e quindi le interazioni a corrente carica di neutrini elettronici. Il progetto di tesi si inquadra in questo contesto. Gli obiettivi specifici sono: - implementazione di una nuova procedura di trigger applicata per l'identificazione degli sciami elettromagnetici; - validazione della suddetta procedura sui dati simulati.
Resumo:
Lo studio condotto in questa tesi ha lo scopo di esplorare possibili soluzioni alternative per aumentare la vita in esercizio di componenti per un contatto tribologico da strisciamento in motori idraulici. In particolare, per limitare l’usura e ridurre l’attrito fra i corpi a contatto, è stata presa in considerazione la deposizione di rivestimenti in carbonio amorfo idrogenato, appartenenti alla famiglia dei rivestimenti DLC (Diamond-Like Carbon), prodotti con tecnologia PACVD (Plasma Assisted Chemical Vapour Deposition), grazie alla collaborazione con la ditta STS srl presso la quale sono state prodotte ed in parte caratterizzate diverse tipologie di strati sottili a base carbonio-carbonio. Questa scelta è stata motivata dal fatto che i rivestimenti DLC combinano basso attrito ed alta resistenza ad usura, dato che l’elevata durezza (e resistenza ad usura) è data dalla presenza di un’elevata frazione di C ibridati sp3 (con struttura simil-diamante) fra loro interconnessi, mentre la tendenza al basso attrito contro la maggior parte degli antagonisti deriva dalla struttura lamellare (quindi a basso sforzo di taglio), tipica del C sp2 (simil-grafite), che permette lo scorrimento fra i piani basali. Nel corso del presente lavoro sono quindi stati presi in esame due gruppi di rivestimenti DLC, differenziati in base alla tipologia di interstrato impiegato per moderare le tensioni residue e migliorare l’adesione (CrN singolo strato o WC/C multistrato), depositati su acciaio 20MnV6 sottoposto preliminarmente a cementazione gassosa per ottenere una adeguata capacità di supporto del carico. Gli strati in esame sono stati caratterizzati dal punto di vista microstrutturale e meccanico (con prove sia di adesione e con prove di nanoindentazione). Successivamente, i materiali rivestiti sono stati sottoposti a prove tribologiche di laboratorio (block-on-ring) in condizioni di strisciamento non lubrificato, per effettuare una valutazione comparativa fra i rivestimenti ed identificare i meccanismi di usura prevalenti nelle diverse coppie tribologiche.
Resumo:
Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.
Resumo:
Questo lavoro ha l’obbiettivo di analizzare i principi che stanno alla base della plasmonica, partendo dallo studio dei plasmoni di superficie fino ad arrivare alle loro applicazioni. La prima parte di questa tesi riguarda l’aspetto teorico. Essendo essenzialmente eccitazioni collettive degli elettroni nell'interfaccia fra un conduttore ed un isolante, descritti da onde elettromagnetiche evanescenti, questi plasmoni superficiali, o polaritoni plasmonici di superficie (SPP), vengono studiati partendo dalle equazioni di Maxwell. Viene spiegato come questi SPP nascano dall’accoppiamento dei campi elettromagnetici con le oscillazioni degli elettroni del materiale conduttore e, utilizzando l’equazione dell’onda, si descrivono le loro proprietà in singola interfaccia e in sistemi multistrato. Il quinto capitolo analizza le metodologie di eccitazione di SPP. Sono descritte varie tecniche per l’accoppiamento di fase, per accennare poi a eccitazioni di SPP in guide d’onda, tramite fibra ottica. L’ultimo capitolo della prima parte è dedicato alla seconda tipologia di plasmoni: i plasmoni di superficie localizzati (LSP). Questi sono eccitazioni a seguito dell’accoppiamento fra elettroni di conduzione di nanoparticelle metalliche e il campo elettromagnetico ma che, a differenza dei SPP, non si propagano. Viene esplorata la fisica dei LSP trattando prima le interazioni delle nanoparticelle con le onde elettromagnetiche, poi descrivendo i processi di risonanza in una varietà di particelle differenti in numero, forma, dimensione e ambiente di appartenenza. La seconda parte della tesi riguarda invece alcune applicazioni. Vengono proposti esempi di controllo della propagazione di SPP nel contesto delle guide d’onda, analizzando l’indirizzamento di SPP su superfici planari e spiegando come le guide d’onda di nanoparticelle metalliche possano essere utilizzate per trasferire energia. Infine, viene introdotta la teoria di Mie per la diffusione e l’assorbimento della luce da parte di nanoparticelle metalliche, per quanto riguarda la colorazione apparente, con esempi sulla colorazione vitrea, come la famosa coppa di Licurgo.
Resumo:
I sistemi di raccomandazione sono una tipologia di sistemi di filtraggio delle informazioni che cercano di prevedere la valutazione o la preferenza che l'utente potrebbe dare ad un elemento. Sono diventati molto comuni in questi ultimi anni e sono utilizzati da una vasta gamma di applicazioni, le più popolari riguardano film, musica, notizie, libri, articoli di ricerca e tag di social networking. Tuttavia, ci sono anche sistemi di raccomandazione per i ristoranti, servizi finanziari, assicurazioni sulla vita e persone (siti di appuntamenti online, seguaci di Twitter). Questi sistemi, tuttora oggetto di studi, sono già applicati in un'ampia gamma di settori, come ad esempio le piattaforme di scoperta dei contenuti, utilizzate on-line per aiutare gli utenti nella ricerca di trasmissioni televisive; oppure i sistemi di supporto alle decisioni che utilizzano sistemi di raccomandazione avanzati, basati sull'apprendimento delle conoscenze, per aiutare i fruitori del servizio nella soluzioni di problemi complessi. Inoltre, i sistemi di raccomandazione sono una valida alternativa agli algoritmi di ricerca in quanto aiutano gli utenti a scoprire elementi che potrebbero non aver trovato da soli. Infatti, sono spesso implementati utilizzando motori di ricerca che indicizzano dati non tradizionali.
Resumo:
Lo studio stratigrafico di diverse prove geognostiche nel sottosuolo dell’alta pianura forlivese ha permesso di ricostruire uno scenario stratigrafico di dettaglio dei depositi tardoquaternari del Bacino Padano. Attraverso la realizzazione di una sezione stratigrafica, parallela al margine del bacino, nei territori compresi tra il comune di Forlì e Forlimpopoli, ottenuta utilizzando stratigrafie di pozzi per acqua, di sondaggi a carotaggio continuo e di prove penetrometriche corredati da datazioni radiometriche, ha evidenziato un’architettura stratigrafica tipica di una pianura alluvionale. L’analisi di facies e le correlazioni stratigrafiche mostrano un’evidente suddivisione dei depositi alluvionali in quattro intervalli stratigrafici a controllo glacio-eustatico. Alla base sono presenti depositi che possono essere attribuibili ad un sistema di regressione forzata (FST), durante i quali si verificherebbe l’incisione dei sistemi alluvionali. I corpi amalgamati di canale fluviale, invece, sarebbero riconducibili alla successiva fase di stazionamento basso del livello del mare (LST), avvenuto durante l’ultimo acme glaciale. Al di sopra di questi depositi, la presenza di corpi lenticolari, isolati, di canale fluviale, entro depositi fini di piana inondabile, è compatibile con una fase di sollevamento del livello del mare (depositi trasgressivi o TST) ed infine i depositi sommitali, prevalentemente fini, potrebbero rappresentare la fase di stazionamento alto del livello del mare (HST). La definizione della geometria dei corpi sepolti in Pianura Padana costituisce uno strumento di rilevante importanza nella ricerca e nella protezione della risorsa idrica: in particolare, l’applicazione dei principi di stratigrafia sequenziale risulta fondamentale nell’interpretazione della distribuzione spaziale dei corpi acquiferi.
Resumo:
Questo progetto ha confrontato gli effetti indotti da diversi tipi di radiazioni, diversa intensità delle dosi, diverso rateo di dose su sistemi cellulari differenti. In particolare sono stati seguiti due studi differenti, finalizzati all’indagine degli effetti e dei meccanismi indotti da trattamenti radioterapici su cellule in coltura. Nel primo studio -EXCALIBUR- sono stati investigati i meccanismi di induzione e trasmissione del danno a basse dosi di radiazioni, in funzione della qualità della radiazione (raggi gamma e protoni) e della dose. Cellule di glioblastoma umano (T98G) sono state irraggiate con raggi gamma e protoni a due diverse dosi (0,25 Gy e 2 Gy); in questo studio è stata valutata e analizzata la variazione di espressione genica rilevata utilizzando la tecnologia dei microarray. Per mezzo dell’analisi statistica, con due software diversi, si è osservato come nelle cellule irraggiate si attivino i geni legati alla senescenza cellulare; questo risultato è significativo, visto che potrebbe rappresentare una prospettiva terapeutica interessante per molte neoplasie. Il secondo studio –Plasma Focus- ha lo scopo di ampliare le applicazioni nel settore medicale di una sorgente radiante che produce raggi X ad altissimo rateo di dose (plasma focus). In questo studio, l’attenzione è stata posta sulla preparazione dei campioni biologici per l’irraggiamento. Cellule di adenocarcinoma mammario (MCF7) sono state coltivate in laboratorio e posizionate all’interno di appositi portacampioni pronte per essere irraggiate con raggi X ad alto e a basso rateo di dose. Per mezzo della microscopia ottica e della citometria a flusso in fluorescenza, si è osservato come un rateo di dose elevato provochi danni cellulari superiori. L’analisi quantitativa ha mostrato che, nelle cellule trattate con il plasma focus, il 18% risulti danneggiato rispetto al 7% delle cellule di controllo; con i raggi X convenzionali risulta danneggiato l'8% di cellule, rispetto al 3% delle cellule di controllo.
Resumo:
I processori multi core stanno cambiando lo sviluppo dei software in tutti i settori dell'informatica poiché offrono prestazioni più elevate con un consumo energetico più basso. Abbiamo quindi la possibilità di una computazione realmente parallela, distribuita tra i diversi core del processore. Uno standard per la programmazione multithreading è sicuramente OpenMP, il quale si propone di fornire direttive semplici e chiare per lo sviluppo di programmi su sistemi a memoria condivisa, fornendo un controllo completo sulla parallelizzazione. Nella fisica moderna spesso vengono utilizzate simulazioni al computer di sistemi con alti livelli di complessità computazionale. Si ottimizzerà un software che utilizza l'algoritmo DMRG (Density Matrix Renormalization Group), un algoritmo che consente di studiare reticoli lineari di sistemi a molti corpi, al fine di renderlo più veloce nei calcoli cercando di sfruttare al meglio i core del processore. Per fare ciò verrà utilizzata l'API OpenMP, che ci permetterà in modo poco invasivo di parallelizzare l'algoritmo rendendo così più veloce l'esecuzione su architetture multi core.
Resumo:
La presente tesi di laurea magistrale si è elaborata nell'ambito del Dipartimento di Tecnologie Ambientali dell'Università di Cadice (Spagna). Tratta lo studio dell'influenza di un co-substrato sulla biodegradabilità anaerobica, in condizioni mesofiliche, dei fanghi di depurazione delle acque residuali. Il co-substrato utilizzato per il miglioramento dei trattamenti dei fanghi è il glicerolo, un sottoprodotto di lavorazione del biodiesel. Le prove realizzate mirano a ottimizzare l'eliminazione della materia organica e la produzione di biogas (idrogeno e metano). Come imminente prospettiva futura, avremo l'avviamento nelle migliori condizioni di processo dell'impianto pilota di depurazione fanghi ubicato presso la stazione di trattamento delle acque reflue urbane di Cadice - San fernando.
Resumo:
Il paradigma “Software-Defined Networking” (SDN) ha suscitato recentemente interesse grazie allo sviluppo e all'implementazione di uno standard tecnologico come OpenFlow. Con il modello SDN viene proposta una rete programmabile tramite la separazione dell’unità di controllo e l'unità di instradamento, rendendo quindi i nodi di rete (come ad es. router o switch) esclusivamente hardware che inoltra pacchetti di dati secondo le regole dettate dal controller. OpenFlow rappresenta lo standard dominante nella tecnologia SDN in grado di far comunicare l'unità controller e l'hardware di uno o più nodi di rete. L'utilizzo di OpenFlow consente maggiore dinamicità e agevolazione nella personalizzazione della rete attraverso un'interfaccia utente, includendo svariate funzioni quali la modifica e l’automatizzazione delle regole di instradamento, la creazione di una rete virtuale dotata di nodi logici o la possibilità di monitorare il traffico accrescendo la sicurezza della propria rete.
Resumo:
La presente tesi di laurea tratta la valorizzazione degli scarti della lavorazione degli agrumi. Tutti i processi di trasformazione utilizzati nell’industria agrumaria danno origine a tre prodotti principali: succo, olio essenziale e pastazzo; il terzo, sottoprodotto a basso valore o scarto di lavorazione, è una biomassa vegetale costituita da scorze, detriti di polpa, semi e frutti di scarto. Questo lavoro si è concentrato su due aspetti fondamentali: lo studio dei possibili utilizzi del pastazzo di agrumi, che si può considerare una fonte di sostanze ad alto valore aggiunto, e la valorizzazione di tale sottoprodotto mediante digestione anaerobica per la produzione di biogas. La composizione chimica degli scarti della lavorazione degli agrumi offre ampie possibilità di utilizzazione: come alimento zootecnico, per la produzione di compost, per l’estrazione di pectina, fibre alimentari e oli essenziali, per il recupero di limonene e per produrre bioetanolo. Infine di recente il pastazzo è stato individuato come componente nella produzione di biogas, attraverso la digestione anaerobica; ciò risulta coerente con il quadro normativo riguardante gli incentivi per la produzione di biogas. E' stato analizzato un caso pratico, l’impianto di produzione di biogas alimentato a biomasse, situato in Sicilia, in contrada Nuova Scala a Mussomeli (CL); l’impianto ha una potenza di 999 KW ed è attivo dal 31 Dicembre 2012. In generale, affinchè si realizzi un corretto dimensionamento di un impianto di produzione di biogas, è necessario conoscere il potenziale metanigeno, che esprime la quantità di biogas metano massimo potenzialmente ottenibile da una biomassa, e la quantità di biomasse disponibili. In particolare, per l’impianto in questione, sono stati elaborati dati relativi alle analisi chimiche condotte sulle singole matrici in input all’impianto, sulla base delle quali è possibile dare un primo giudizio di fermentescibilità dei vari substrati e della rispettiva resa in biogas.
Resumo:
La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.
Resumo:
In un sistema radar è fondamentale rilevare, riconoscere e cercare di seguire il percorso di un eventuale intruso presente in un’area di osservazione al fine ultimo della sicurezza, sia che si consideri l’ambito militare, che anche quello civile. A questo proposito sono stati fatti passi avanti notevoli nella creazione e sviluppo di sistemi di localizzazione passiva che possano rilevare un target (il quale ha come unica proprietà quella di riflettere un segnale inviato dal trasmettitore), in modo che esso sia nettamente distinto rispetto al caso di assenza dell’intruso stesso dall’area di sorveglianza. In particolare l’ultilizzo di Radar Multistatico (ossia un trasmettitore e più ricevitori) permette una maggior precisione nel controllo dell’area d’osservazione. Tra le migliori tecnologie a supporto di questa analisi vi è l’UWB (Ultra Wide-Band), che permette di sfruttare una banda molto grande con il riscontro di una precisione che può arrivare anche al centimetro per scenari in-door. L’UWB utilizza segnali ad impulso molto brevi, a banda larga e che quindi permettono una risoluzione elevata, tanto da consentire, in alcune applicazioni, di superare i muri, rimuovendo facilmente gli elementi presenti nell’ambiente, ossia il clutter. Quindi è fondamentale conoscere algoritmi che permettano la detection ed il tracking del percorso compiuto dal target nell’area. In particolare in questa tesi vengono elaborati nuovi algoritmi di Clustering del segnale ricevuto dalla riflessione sull’intruso, utilizzati al fine di migliorare la visualizzazione dello stesso in post-processing. Infine questi algoritmi sono stati anche implementati su misure sperimentali attuate tramite nodi PulsOn 410 Time Domain, al fine ultimo della rilevazione della presenza di un target nell’area di osservazione dei nodi.
Resumo:
Lo sviluppo di nuove tecnologie sempre più innovative e all’avanguardia ha portato ad un processo di costante rivisitazione e miglioramento di sistemi tecnologici già esistenti. L’esempio di Internet risulta, a questo proposito, interessante da analizzare: strumento quotidiano ormai diventato alla portata di tutti, il suo processo di rivisitazione ha portato allo sviluppo dell’Internet Of Things (IoT), neologismo utilizzato per descrivere l'estensione di Internet a tutto ciò che può essere trasformato in un sistema elettronico, controllato attraverso la rete mondiale che oggi può essere facilmente fruibile grazie all’utilizzo di Smartphone sempre più performanti. Lo scopo di questa grande trasformazione è quello di creare una rete ad-hoc (non necessariamente con un accesso diretto alla rete internet tramite protocolli wired o wireless standard) al fine di stabilire un maggior controllo ed una maggiore sicurezza, alla quale è possibile interfacciare oggetti dotati di opportuni sensori di diverso tipo, in maniera tale da condividere dati e ricevere comandi da un operatore esterno. Un possibile scenario applicativo della tecnologia IoT, è il campo dell'efficienza energetica e degli Smart Meter. La possibilità di modificare i vecchi contatori del gas e dell’acqua, tutt’oggi funzionanti grazie ad una tecnologia che possiamo definire obsoleta, trasformandoli in opportuni sistemi di metring che hanno la capacità di trasmettere alla centrale le letture o i dati del cliente, di eseguire operazioni di chiusura e di apertura del servizio, nonché operazioni sulla valutazione dei consumi, permetterebbe al cliente di avere sotto controllo i consumi giornalieri. Per costruire il sistema di comunicazione si è utilizzato il modem Semtech SX1276, che oltre ad essere low-power, possiede due caratteristiche rivoluzionarie e all’avanguardia: utilizza una modulazione del segnale da trasmettere innovativa e una grande capacità di rilevare segnali immersi in forti fonti di rumore ; la possibilità di utilizzare due frequenze di trasmissione diverse, 169 MHz e 868MHz.
Resumo:
Il compressed sensing è un’innovativa tecnica per l’acquisizione dei dati, che mira all'estrazione del solo contenuto informativo intrinseco di un segnale. Ciò si traduce nella possibilità di acquisire informazione direttamente in forma compressa, riducendo la quantità di risorse richieste per tale operazione. In questa tesi è sviluppata un'architettura hardware per l'acquisizione di segnali analogici basata sul compressed sensing, specializzata al campionamento con consumo di potenza ridotto di segnali biomedicali a basse frequenze. Lo studio è svolto a livello di sistema mediante l'integrazione della modulazione richiesta dal compressed sensing in un convertitore analogico-digitale ad approssimazioni successive, modificandone la logica di controllo. Le prestazioni risultanti sono misurate tramite simulazioni numeriche e circuitali. Queste confermano la possibilità di ridurre la complessità hardware del sistema di acquisizione rispetto allo stato dell'arte, senza alterarne le prestazioni.