123 resultados para Carlo Ludovico, duca di Lucca, 1799-1883


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi riguarda l'implementazione e la verifica di alcuni algoritmi di determinazione d'assetto, con l'obiettivo di verificarne le prestazioni e valutarne la possibilità di utilizzo sul ADS del satellite DustCube, operante nel sistema binario Didymos. I filtri si basano sulla combinazione delle misure di diversi sensori, tra i quali star tracker, sensori di Sole, camera a infrarossi e giroscopio. I sensori in questione sono stati modellizzati all'interno di un simulatore implementato in MATLAB/Simulink. L'approccio utilizzato per la determinazione dell'assetto è quelllo di impiegare due differenti filtri: il primo per la calibrazione del giroscopio, il secondo che utilizza i parametri di calibrazione calcolati dal primo per correggere la velocità angolare misurata da giroscopio e determinare l'assetto con un maggiore accuratezza. Le prestazioni dei vari filtri sono state caratterizzate attraverso un'analisi statistica: le simulazioni Monte Carlo. I risultati, nei limiti delle ipotesi fatte, hanno confermato la validità dell'approccio. Per la determinazione effettiva delle prestazioni di questo sistema sull'ADS del DustCube si rimanda ad uno studio di maggior dettaglio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi ha come scopo principale quello di studiare la funzione di risoluzione e le distribuzioni della distanza equivalente attraverso i risultati ottenuti dal lavoro del gruppo n_TOF al CERN di Ginevra. n_TOF utilizza un fascio di protoni accelerato dal ProtoSincrotrone (PS) del CERN per crearne due di neutroni (uno verticale e uno orizzontale) tramite spallazione. Dopo aver spiegato la tecnica del tempo di volo (TOF) e descritto il set up sperimentale presente al CERN, si esporranno le simulazioni Monte Carlo utilizzate per simulare la produzione dei fasci di neutroni, analizzando nel dettaglio quello diretto verso la prima sala sperimentale. Nella parte finale del lavoro verranno riportati i risultati ottenuti dalle simulazioni; verrà prestata particolare attenzione al confronto tra le conclusioni ottenute da tre gruppi di lavoro differenti nonchè ad una trattazione statistica delle misure effettuate. Si mostrerà inoltre in che modo lo studio effettuato sia importante nella determinazione delle sezioni d'urto nelle reazioni indotte da neutroni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro si pone l'obiettivo di fornire stime della dose efficace annua e della dose al cristallino annua per operatori di radiologia interventistica. Ci si concentra inoltre sulla dose al cristallino vista la recente direttiva EURATOM che dovrà essere recepita dalla normativa italiana entro febbbraio 2018. Ci si è occupati di una equipe di tre medici radiologi operanti presso il reparto di Neuroradiologia dell'Ospedale Bellaria di Bologna che lavora principalmente con un angiografo biplanare. Il lavoro sperimentale ha avuto inizio delineando il campo di radiazione presente nella sala operatoria ed in particolare, nei pressi del primo medico operatore che è risultato essere quello più esposto alle radiazioni. Il campo di radiazione è stato definito tramite misurazioni con camera a ionizzazzione utilizzando dei fantocci in PMMA simulanti un paziente. Determinati i valori del campo di radiazione e stabiliti alcuni parametri fissi si è cercato un parametro (possibilmente registrato dalla macchina) che permettesse una correlazione tra il carico di lavoro degli operatori e la dose da essi ricevuta in modo da ricavare stime sul lungo periodo. Questo è stato individuato nel DAP totale (registrato automaticamente dopo ogni intervento e presenti nei report) grazie alla presenza di mappe isokerma fornite dalla ditta costruttrice dell'angiografo. Tali mappe forniscono una relazione tra Kerma e DAP al variare di alcuni parametri di macchina. Affinchè fosse possibile utilizzare le mappe isokerma ne è stata necessaria la verifica tramite ulteriori misure sperimentali (nelle stesse condizioni operative definite nelle mappe). Effettuata la verifica si è determinato il carico di lavoro degli operatori per quattro mesi, assunto come periodo sufficientemente lungo per una stima sulla dose assorbita annua. Combinando i carichi di lavoro con i valori di dose assorbita rilevati si sono ottenute le stime obiettivo della tesi che vengono discusse sotto vari aspetti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Supported by the increasing sustainable awareness, glycerol carbonate has gained much interest over the last 20 years because of its versatile reactivity and as a way to valorize waste glycerol. Numerous synthesis pathways for this molecule were identified, some of them very promising and on the verge of being applied at an industrial scale. Here, we report a study aimed at valorizing glycerol carbonate as chemical intermediate, in order to synthesize 2-hydroxymethyl-1,4-benzodioxane (HMB). This molecule finds important applications as key intermediate for the synthesis of a broad class of pharmaceuticals and therapeutic agents. Concerning the presence of a stereogenic center on the hydroxymethyl group, due to the pharmaceutical importance to obtain and isolate one single enantiomer, , nowadays HMB is obtained through batch scale process, using a multi-reaction approach and starting from reagents of the chiral pool. We carried out the reaction from a solution of glycerol carbonate and catechol 2:1. In the presence of a simple basic catalyst, at high temperatures, it was possible obtain total reactants conversion and high yield to HMB in few hours reaction time. Also, in the aim of developing a process which might adhere the principles of Green Chemistry, we avoided the use of solvents. Similar results were obtained using a 1:1 feed ratio of reactants, even if selectivity to HMB decrease, due to the presence of side reactions. A complete study of the reaction mechanism is proposed in this thesis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fino ad oggi la mobilità urbana si è affidata in particolar modo alla motorizzazione privata. Occorre considerare anche altre alternative di trasporto per garantire una mobilità più sostenibile ed efficace all’interno delle nostre aree urbane. Una di queste alternative è costituita dalla bicicletta, che deve essere considerata un’autentica alternativa di trasporto, che può facilmente contribuire, assieme ad altre, a ridurre l’attuale inefficiente dipendenza dall’automobile. La progettazione dei percorsi ciclo-pedonali richiede collegamenti sicuri, diretti, ben segnalati e confortevoli, che assicurino una mobilità indipendente e protetta per tutti. In questo lavoro di tesi stato proposto un questionario che ha lo scopo di dare un ritratto immediato degli utenti ciclabili che percorrono i campi prova analizzati, confrontare i risultati ottenuti e verificare quali parametri sono ritenuti di maggiore importanza per l’utente medio. Nella seconda fase e punto focale di tale lavoro di ricerca è stata svolta un’attenta analisi delle possibili scelte e problematiche di un particolare caso reale. In particolare, sono stati valutati gli elementi che il conducente del velocipede scansiona con lo sguardo durante la guida, cercando informazioni significative per la posizione spaziale e temporale in cui si trova. La ricerca è stata condotta mediante l’utilizzo della strumentazione Mobile Eye-XG che permette il rilievo in continuo dello sguardo dei conducenti durante la guida. Il campo prova riguarda il percorso “Sabotino”, composto da due itinerari situati all’interno dell’area urbana di Bologna, la Tangenziale Ovest delle biciclette e la “ciclabile vecchia” Sabotino. Dalle informazioni ricavate dall’analisi, si è cercato infine di ipotizzare delle possibili ed efficaci migliorie, che possano incentivare l’uso della bicicletta e la sicurezza nei confronti della mobilità lenta, migliorando le prestazioni della pista e aumentando gli standard.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con lo sviluppo di sorgenti capaci di sostenere scariche di non equilibrio a pressione atmosferica è nato un notevole interesse per le applicazioni biomediche del plasma, data la generazione nella scarica di una varietà di agenti efficaci in più ambiti. I plasmi di questo tipo, caratterizzati principalmente da una temperatura macroscopica vicina a quella ambiente, sono infatti già utilizzati, ad esempio, per la sterilizzazione, per il trattamento di polimeri per migliorarne la biocompatibilità, e per l’accelerazione del processo di coagulazione del sangue. In questo lavoro verrà presentata un’altra possibilità applicativa, sempre nel settore della plasma medicine, ovvero l’utilizzo dei plasmi per il trattamento di cellule cancerose, che sta avendo un particolare successo a causa dei risultati ottenuti dai vari gruppi di ricerca che sottintendono un suo possibile futuro nel trattamento di neoplasie. Verrà presentata una breve introduzione alla fisica del plasma, mostrando alcuni parametri che caratterizzano questo stato della materia, concentrandosi in particolare sui plasmi non termici o di non equilibrio, per poi passare al processo di ionizzazione del gas. Nel secondo capitolo sono approfondite due sorgenti per la generazione di plasmi non termici, la scarica a barriera dielettrica e il plasma jet. Il terzo capitolo fornisce una preliminare spiegazione degli agenti generati nella scarica e il rapporto che hanno con la materia con cui interagiscono. L’ultimo capitolo è il fulcro della ricerca, e comprende risultati ottenuti negli ultimi anni da vari gruppi di ricerca di molte nazionalità, e una breve parte riguardante la sperimentazione originale svolta anche in mia presenza dal gruppo di ricerca del Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, rappresentato principalmente dal professor Carlo Angelo Borghi e dal professor Gabriele Neretti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Modello Standard delle particelle elementari prevede l’universalità del sapore leptonico, cioè l’uguaglianza della probabilità di accoppiamento dei bosoni di gauge carichi dell’interazione debole con tutti i leptoni. Recentemente, le Collaborazioni LHCb, BaBar e Belle, misurando il rapporto tra i branching ratio dei decadimenti $B^0\to D^{∗− }\tau^+\nu_{\tau} e $B^0 →D^{∗−}\mu^+\nu_{\mu}, hanno osservato una deviazione dai valori previsti dal Modello Standard di 3.9 deviazioni standard. Questo interessante risultato, se confermato, indicherebbe l’esistenza di nuove particelle, come per esempio il bosone di Higgs carico. Analogamente ai decadimenti del mesone $B^0$ , è possibile cercare effetti analoghi anche nel rapporto di branching ratio dei decadimenti $D^0\to K^ −\mu^+\nu_{\mu}$ e $D^0\to K^−e^+\nu_e$ . In questo lavoro di tesi è stato realizzato uno studio preliminare di questa misura. In particolare, è stato studiata, tramite simulazioni Monte Carlo, la ricostruzione del processo $D^{*\pm}\to D^0 (\to K^− \mu+\nu_{\mu})\pi_s^{\pm}$ nell’esperimento LHCb. Questo canale ha la particolarità di avere una particella invisibile, il neutrino, al rivelatore LHCb. Tuttavia, mediante vincoli cinematici e topologici, è possibile ricavare le componenti dell’impulso del neutrino, con risoluzioni non paragonabili a quelle di una particella visibile, ma comunque accettabili. In questa tesi sono riportati i calcoli che permettono di ottenere queste informazioni ed è stata studiata la risoluzione sulla massa invariante del $D^{∗\pm}$ . La tesi è organizzata nel seguente modo: il primo capitolo riporta le motivazioni della misura dei rapporti dei branching ratio e l’attuale stato sperimentale; il secondo capitolo contiene una breve descrizione del rivelatore LHCb; il terzo capitolo, infine, descrive lo studio di fattibilità della ricostruzione del decadimento $D^0\to K^-\mu^+\nu_{\mu}.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sviluppo di una piattaforma software per l'estrazione e l'analisi dei dati dalle pagine Facebook ufficiali del turismo delle regioni italiane, per lo studio dell'andamento delle promozioni turistiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I veicoli ad alte prestazioni sono soggetti ad elevati carichi per piccoli intervalli di tempo. Questo comporta diverse criticità sulle componenti che costituiscono la vettura: una di queste è la pinza freno. Al fine di renderla performante è necessario il possesso di due proprietà. In primo luogo, la pinza freno deve essere il più leggera possibile poiché essa conferisce un'inerzia nella risposta della sospensione del veicolo, procurando il distacco dello pneumatico dal suolo e causando perdita di aderenza. In secondo luogo, è necessario contenere le deformazioni della pinza freno garantendo un determinato feeling per il pilota. Il compito del progettista è ottimizzare questi due parametri che hanno effetti antitetici. Questa difficoltà porta il progettista a creare design molto complessi per raggiungere l’ottimale e non sempre le geometrie ottenute sono realizzabili con tecnologie convenzionali. Questo studio riguarda il miglioramento prestazionale di una pinza freno costruita con una lega di alluminio 7075-T6 e lavorato dal pieno. Gli obbiettivi sono quello di produrre il nuovo corpo in titanio TI6Al4V, dal momento che le temperature di esercizio portano a grandi decadute di caratteristiche meccaniche dell’alluminio, contenere il più possibile la massa a fronte dell’aumento di densità di materiale e ovviamente limitare le deformazioni. Al fine di ottenere gli obbiettivi prefissati sono utilizzati metodi agli elementi finiti in diverse fasi della progettazione: per acquisire una geometria di partenza (ottimizzazione topologica) e per la validazione delle geometrie ottenute. Le geometrie ricavate tramite l’ottimizzazione topologica devono essere ricostruite tramite software CAD affinché possano essere ingegnerizzate. Durante la modellazione è necessario valutare quale tecnologia è più vantaggiosa per produrre il componente. In questo caso studio si utilizza un processo di addizione di materiale, più specificatamente una tecnica Selective Laser Melting (SLM).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The study of the combined Steam/Dry Reforming (S/DR) process for the production of syngas (CO + H2) from clean biogas was carried out using Ni/Ir bimetallic catalysts on Mg and Al mixed-oxides, obtained by calcination of hydrotalcite-type precursors (Ht) prepared by co-precipitation. The presence of small amounts of Ir promoted the catalytic activity and limited the deactivation phenomena through the formation of a bimetallic alloy, which does the catalyst very active even at lowest temperature and in lack of steam. By integrating a High Temperature–WGS unit (HTS) after the S/DR reactor it was possible to increase the H2 yield of the process. The performance of the Zn/Al/Cu-based catalyst was improved using a templating agent during the synthesis of the catalyst, which increased the catalyst’s structural properties and activity especially at lowest temperatures and at highest contact times. Finally, starting from the laboratory data, it was possible to simulate the S/DR process on industrial scale, evaluating its scalability and environmental impact. The results showed that, using the S/DR technology instead of the current processes, it was possible to reduce the energy costs and the atmospheric emissions of the plant.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una delle metodologie che negli ultimi tempi viene utilizzata più frequentemente per la valutazione ambientale di prodotti, processi e servizi è detta LCA, Life Cycle Assessment: essa valuta l’impatto ambientale associato ad un processo o ad un prodotto considerando tutto il suo ciclo di vita. Nel presente elaborato di tesi la metodologia è applicata ad un processo chimico industriale in fase di studio su scala di laboratorio presso il Dipartimento di Chimica Industriale dell’Università di Bologna, che prevede la sintesi di syngas a partire da biogas tramite le reazioni di dry reformng (DR) e steam refroming (SR). Tale processo è stato studiato poiché a livello teorico presenta i seguenti vantaggi: l’utilizzo di biogas come materia prima (derivante dalla digestione anaerobica dei rifiuti), lo sfruttamento dell’anidride carbonica presente nel biogas e l’utilizzo di un solo reattore anziché due. Il processo viene analizzato attraverso due diversi confronti: in primo luogo è comparato con processi con tecnologie differenti che producono il medesimo prodotto (syngas); in secondo luogo è paragonato a processi che impiegano la stessa materia prima (biogas), ottenendo prodotti differenti. Nel primo confronto i processi confrontati sono uno scenario di Autothermal reforming (ATR) e uno scenario che prevede DR e SR in due reattori separati; nel secondo confronto i prodotti che si ottengono sono: energia termica ed elettrica attraverso un sistema CHP, biometano con un sistema di upgrading del biogas, energia e biometano (CHP + upgrading) ed infine metanolo prodotto da syngas (generato dal processo studiato). Per il primo confronto è risultato che lo scenario che porta ad un minore impatto ambientale è il processo studiato dall'università di Bologna, seguito dallo Scenario con DR e SR in reattori separati ed infine dal processo di ATR. Per quanto concerne il secondo confronto lo scenario migliore è quello che produce biometano, mentre quello che produce metanolo è al terzo posto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ultimamente si stanno sviluppando tecnologie per rendere più efficiente la virtualizzazione a livello di sistema operativo, tra cui si cita la suite Docker, che permette di gestire processi come se fossero macchine virtuali. Inoltre i meccanismi di clustering, come Kubernetes, permettono di collegare macchine multiple, farle comunicare tra loro e renderle assimilabili ad un server monolitico per l'utente esterno. Il connubio tra virtualizzazione a livello di sistema operativo e clustering permette di costruire server potenti quanto quelli monolitici ma più economici e possono adattarsi meglio alle richieste esterne. Data l'enorme mole di dati e di potenza di calcolo necessaria per gestire le comunicazioni e le interazioni tra utenti e servizi web, molte imprese non possono permettersi investimenti su un server proprietario e la sua manutenzione, perciò affittano le risorse necessarie che costituiscono il cosiddetto "cloud", cioè l'insieme di server che le aziende mettono a disposizione dei propri clienti. Il trasferimento dei servizi da macchina fisica a cloud ha modificato la visione che si ha dei servizi stessi, infatti non sono più visti come software monolitici ma come microservizi che interagiscono tra di loro. L'infrastruttura di comunicazione che permette ai microservizi di comunicare è chiamata service mesh e la sua suddivisione richiama la tecnologia SDN. È stato studiato il comportamento del software di service mesh Istio installato in un cluster Kubernetes. Sono state raccolte metriche su memoria occupata, CPU utilizzata, pacchetti trasmessi ed eventuali errori e infine latenza per confrontarle a quelle ottenute da un cluster su cui non è stato installato Istio. Lo studio dimostra che, in un cluster rivolto all'uso in produzione, la service mesh offerta da Istio fornisce molti strumenti per il controllo della rete a scapito di una richiesta leggermente più alta di risorse hardware.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Covid-19 ha obbligato a riorganizzare le attività didattiche in base alle esigenze connesse al contenimento dei contagi. Nell’affrontare l’emergenza, i dispositivi elettronici e la connettività sono risultati fondamentali per la sostituzione della didattica in presenza con quella a distanza. L’impatto è stato critico, ma ha costretto anche i più scettici a adeguare la propria offerta formativa, per rispondere alle necessità emerse e per non interrompere la relazione educativa e il processo di apprendimento attivato con i propri alunni. Ciò ha rappresentato un punto di rottura ma anche di svolta per il sistema scolastico, che ha dovuto riconoscere la centralità degli strumenti tecnologici nell’attivazione di ambienti digitali per l’apprendimento, in grado di coinvolgere e connettere insegnanti e studenti anche fuori dall’aula. Questo ha ridotto il divario tra generazioni, inducendo molti docenti a sperimentare le nuove tecnologie con più naturalezza, accelerando il cambiamento già prefigurato nel PNSD e nelle Raccomandazioni Europee. Per orientare le nuove generazioni all’uso consapevole delle nuove tecnologie, la mediazione didattica operata dal docente assume un ruolo centrale per facilitare gli apprendimenti, affiancando i new media a quelli tradizionali. A tal proposito la scelta degli approcci pedagogici e delle metodologie didattiche si rivela essenziale, quindi sono stati esaminati gli apporti che possono fornire le varie teorie e studi per strutturare la propria proposta didattica. Sono stati presi in esame alcuni strumenti digitali in grado di attivare strategie didattiche innovative e inclusive, che ho sperimentato nel percorso universitario e messo in atto durante il tirocinio. In quest’ottica, tenendo conto del contesto scolastico di riferimento, del curricolo verticale esplicitato nel PTOF e dei bisogni educativi degli alunni, sono state proposte due UA in una classe terza della scuola secondaria di primo grado Carlo Pepoli di Bologna.