687 resultados para gruppi di isometrie dei fregi cristallografici piani Escher
Resumo:
Lo studio svolto si propone di stabilire quali sono le condizioni di gestione ottimale del sistema di depurazione dei fumi dell’impianto di termovalorizzazione di Rimini, situato nel comune di Coriano e gestito da Herambiente, una società nata nel 2009 nell'ambito del Gruppo Hera, una delle più importanti multiutility italiane che opera nei servizi dell’ambiente, dell’acqua e dell’energia. Il sistema di depurazione dell’impianto è composto da un doppio stadio di abbattimento a secco in cui si dosa calce (Ca(OH)2), al primo stadio, e bicarbonato di sodio (NaHCO3), al secondo. Rispetto alla calce, il bicarbonato garantisce una migliore efficienza di abbattimento dei gas acidi (HCl, SO2, HF), ma ha un prezzo d’acquisto maggiore. Da tale considerazione ha origine il problema di ottimizzazione economica: è necessario individuare una soluzione che consenta di ridurre il consumo e la spesa dei reagenti utilizzati senza alterare le emissioni di inquinanti a camino. I costi operativi legati alla gestione del sistema di depurazione, inoltre, devono tenere in considerazione anche la produzione dei residui solidi generati nei due stadi di abbattimento. Il calcolo di ottimizzazione è stato eseguito utilizzando un modello matematico in grado di prevedere il comportamento dei sistemi reagenti nei due stadi di abbattimento tramite la conoscenza di un parametro empirico. Dopo aver calibrato il modello con i dati di funzionamento dell’impianto, è possibile procedere alla sua implementazione al fine di valutare, in diversi periodi dell’anno 2015, come variano i costi operativi totali in funzione della conversione di HCl (gas acido più critico) al primo stadio di abbattimento e individuare quindi la migliore condizione economico-operativa per ciascun periodo considerato.
Resumo:
L’elaborato propone una descrizione generale dei dispositivi protesici transtibiali, dalla storia, al processo di protesizzazione dei pazienti amputati alla struttura costitutiva modulare. Particolare importanza viene, inoltre, conferita all’analisi biomeccanica del movimento, della quale è data descrizione delle tecniche, della strumentazione, e dei risultati che vengono ottenuti nelle indagini di soggetti amputati rispetto alle persone normodotate. Considerazioni sulla biomeccanica di pazienti protesizzati transtibialmente offrono interessanti spunti di riflessione sulle componenti meccaniche, idrauliche ed elettroniche dei dispositivi modulari, delle quali si descrive in modo completo la struttura e il funzionamento, facendo riferimento ai brevetti tecnici più noti. Verranno, infine, riportati risultati di recenti studi e ricerche che evidenziano come l’utilizzo nei moduli prostesici transtibiali di caviglie idrauliche a controllo elettronico dello smorzamento sia la soluzione ottimale per ottenere risultati biomeccanicamente migliori, sia dal punto di vista dell’efficienza del movimento che per quanto riguarda l’equilibrio.
Resumo:
Il poliuretano termoplastico (TPU) è un materiale polimerico molto versatile che, se formulato in maniera opportuna può assumere un’ampia gamma di caratteristiche chimico-fisiche e proprietà meccaniche. Per questo motivo negli ultimi decenni sono state studiate estesamente le sue applicazioni e i metodi di sintesi. Il lavoro presentato ha come scopo la valutazione delle proprietà reologiche dei fusi polimerici di una serie di TPUs, mediante l'ausilio di un reometro capillare. A tal proposito lo scopo del progetto è stato quello di incrementare la conoscenza dei fenomeni reologici che avvengono in un fuso polimerico in fase di lavorazione per ottenere un determinato prodotto finito e commercializzabile e che sanciscono l'effettiva realizzazione del processo in funzione delle caratteristiche del TPU in questione. Con l’utilizzo del reometro capillare si ha la possibilità di simulare le condizioni termiche e di stress meccanico delle più comuni tecnologie di formatura dei materiali polimerici: dall’estrusione allo stampaggio ad iniezione, passando per lo stampaggio a compressione. Questa importante caratteristica strumentale risulta utile in fase di assistenza al cliente, in modo da proporre una tipologia di materiale adatta alla tecnologia disponibile e, in alcuni casi, suggerire le condizioni più opportune per la lavorazione dello stesso.
Resumo:
In questo lavoro di tesi ci proponiamo di determinare lo spessore degli isotopi ^155Gd e ^157Gd in vista della misura della sezione d’urto di cattura neutronica presso la facility n_TOF del CERN. La principale motivazione dell’esperimento è legata alla necessità di ottenere misure più accurate per le applicazioni ai reattori nucleari. Inoltre, i nuovi risultati, potranno essere sfruttati anche per applicazioni ai recenti sviluppi nella Terapia di Cattura Neutronica e per costruire nuovi rivelatori nell’ambito della ricerca del neutrino. La misura sarà effettuata nella prima area sperimentale EAR-1 di n TOF, equipaggiata con rivelatori, come per esempio gli scintillatori liquidi al benzene deuterato (C6D6) particolarmente adatti per questi tipi di misura. La sezione d’urto di questi due isotopi cambia di molti ordini di grandezza al variare dell’energia dei neutroni incidenti. Per questo motivo, lo studio effettuato in questa tesi ha mostrato che sono necessari due campioni altamente arricchiti per ogni isotopo da misurare: un campione estremamente sottile per energie del neutrone fino a 100 meV, e uno più spesso per energie maggiori. Inoltre per questi campioni sono stati determinati le densità areali necessarie per lo svolgimento dell’esperimento affinchè avvenga il fenomeno di trasmissione dei neutroni.
Resumo:
In questo lavoro viene condotta un’analisi critica delle caratteristiche materiali e delle performance di una classe di polimeri recentemente sviluppata, i “Polimeri a Microporosità Intrinseca”, di grande interesse per lo sviluppo di membrane per la separazione di gas, specialmente nella Carbon Capture. Partendo dall’analisi del meccanismo di separazione di gas in membrane polimeriche dense si fornisce una overview sulle tecnologie assodate e innovative per la separazione di gas e per la CC. Le caratteristiche e le proprietà strutturali di rilievo dei polimeri vetrosi sono poi brevemente illustrate e le correlazioni empiriche note tra le suddette e le proprietà di trasporto di materia. Vengono quindi descritti i PIMs analizzando in primis la loro tipica struttura chimica, i processi di sintesi e le caratteristiche principali. Per il PIM-1, capostipite della categoria, il trasporto di gas viene approfondito con lo studio della variabilità delle proprietà quali la permeabilità, la diffusività e la solubilità di penetranti gassosi con i parametri operativi (p, T, composizione dei feed), considerando anche fenomeni tipici dei polimeri vetrosi quali l’aging e l’effetto dei solventi. Sono poi analizzate le proprietà di trasporto nei diversi PIMs, e confrontate con quelle di polimeri di comune utilizzo nelle separazioni in esame. La rielaborazione dei dati raccolti permette di confrontare le performance di una varietà di polimeri nella separazione di gas. In particolare l’analisi critica dei diagrammi permeabilità/selettività induce ad una valutazione approssimativa ma significativa delle possibili soluzioni tra cui optare per una data separazione di gas, considerando anche i parametri operativi tipici della stessa. Infine, vengono riportati e commentati dati di permeazione di miscele gassose in due diversi PIMs e nel polimero PTMSP, ponendo l’attenzione sulle reali condizioni operative con cui la tecnologia a membrane si deve confrontare in applicazioni reali.
Resumo:
Lo scopo della presente tesi è sviluppare un ambiente per l'ottimizzazione strutturale di componenti per applicazione aerospaziale utilizzando codici open-source. In particolare, il codice Salome viene utilizzato per il disegno automatico delle strutture, il programma Code Aster permette di effettuare l'analisi agli elementi finiti del componente, mentre Octave viene utilizzato per svolgere l'ottimizzazione basata su un algoritmo euristico e per integrare fra di loro i differenti codici. Le tecniche di ottimizzazione dei componenti stanno rivestendo sempre più importanza visto che le moderne tecniche di Additive Manufacturing permettono di realizzare strutture molto complesse che un tempo non era conveniente (o possibile) realizzare con asportazione di materiale. Nella prima parte della tesi si descrivono gli strumenti software utilizzati e la loro integrazione al fine di parametrizzare la generazione di geometrie ed effettuare in modo automatico analisi strutturali. Successivamente si descrivono tre casi di studio in cui la metodologia è stata sperimentata: un primo caso di validazione in cui si è applicato il metodo alla definizione della geometria di minimo peso per una trave a sbalzo con carico concentrato, un secondo test di ottimizzazione di un longherone per aeromobile, un terzo caso applicativo legato alla ottimizzazione di un serbatoio per fluidi in pressione da utilizzare su un satellite.
Resumo:
La Tesi tratta di un caso di studio di un magazzino ricambi in ottima di ottimizzazione e riprogettazione. Dall'analisi della situazione attuale in termini di scorte, processo e indice di saturazione volumetrico si evince come una nuova soluzione di magazzino sia l'unica strada da percorrere per fronteggiare l'attesa crescita del business. L'incremento delle vendite e allo stesso tempo il mantenimento dell'alto livello di servizio da garantire al cliente in termini di disponibilità dei codici e puntualità della consegna, sono due condizione che richiedono un innovazione di tipo radicale. Da un progetto a livello di Gruppo si arriva a definire la configurazione ideale del nuovo magazzino e si lascia ad uno sviluppo futuro l'effettiva gestione del tender per definire l'operatore logistico che porterà avanti il lavoro.
Resumo:
La pianificazione e la gestione dei processi è diventata un elemento critico a causa della crescente complessità delle attività all’interno delle organizzazioni. Nell’era dell’impresa digitale, la gestione dei processi di businesss viene coadiuvata mediante l’utilizzo di sistemi software che sono in grado di gestire una grande quantità di informazioni ovvero i sistemi BPM. Il Business Performance Management è una disciplina gestionale che si occupa di descrivere e gestire i processi di business di una organizzazione. L’obiettivo della seguente tesi è verificare se il modello del processo realizzato precedentemente all’implementazione del sistema reale possa permettere una più dettagliata analisi del sistema e anticipare relative problematiche che talvolta si evincono solamente durante il mero sviluppo. Inoltre si vuole verificare se il modello realizzato in fase di discussione di un nuovo progetto cliente possa poi migliorare anche lo scambio di informazioni nel team di sviluppo. A supporto di questa tesi è stato sviluppato un caso di studio reale in una società di gestione del risparmio specializzata in fondi di investimento immobiliare. Inizialmente si è proceduto con una prima fase di raccolta dei requisiti dell’applicativo che si è conclusa con la realizzazione dei modelli creati utilizzando due linguaggi che sono il Business Process Model and Notation (BPMN) e il Decision Model and Notation (DMN); il medesimo applicativo è stato successivamente implementato seguendo i modelli realizzati. I tempi globali di sviluppo del sistema e la migliore comprensione del modello da parte del team di sviluppo hanno fatto evincere l’utilità della modellazione a fronte di maggiori giornate uomo. Inoltre è stata riscontata maggiore manutenibilità complessiva del sistema.
Resumo:
Nella tesi si cerca di dare una nuova chiave di lettura del monumento unico nel suo genere, quanto noto Parliamo del Mausoleo di Teodorico che si erige nelle immediate vicinanze del centro di Ravenna.Il Mausoleo costruito nel v secolo, quando Ravenna è capitale dell’impero d’Occidente e vi si stabilisce Teodorico il Grande. La struttura è stata molto esaminata nel corso del tempo da molti studiosi ma non si ha notizia di una analisi d'insieme. Si è cercato quindi di mettere a fuoco uno degli aspetti più emblematici ed ancor ben lungi da scientifiche certezze: La sua copertura.Si tratta di un monolite con un peso stimato tra le 240 e le 270 Tonnellate proveniente dalle cave di Aurisina in Istria. Numerosi studiosi si sono cimentati nello stipulare le proprie ipotesi sul trasporto e soprattutto sulla sua messa in opera senza giungere ad un univoca conclusione. Si è proceduto poi alla loro schematizzazione in filoni principali senza tralasciare una propria opinione valutandone i pro e i contro anche in base alle conoscenze attuali. Si sono confrontati metodi di trasporto dei monoliti, senza tralasciare l’analisi delle macchine da cantiere dell’epoca a supporto delle ipotesi proposte. Da ultimo mi sono soffermato sul significato semantico delle dentellature di sommità della copertura, o modiglioni: anche per questi elementi vi sono stati e mi auguro ci saranno numerosi dibattiti sul loro aspetto simbolico o quantomeno funzionale. Durante la stesura della è scaturito anche un interessante confronto di idee che testimonia quanto la questione sia ancora articolata ed interessante. Si apre quindi a suggerimenti per spunti futuri specialmente per quanto riguarda indagini diagnostiche strumentali sulla cupola e sulla sua crepa. Mi auguro che raccogliendo e analizzando le principali ipotesi si possa proseguire questo filone investigativo.
Resumo:
Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.
Resumo:
Il Modello Standard delle particelle elementari prevede l’universalità del sapore leptonico, cioè l’uguaglianza della probabilità di accoppiamento dei bosoni di gauge carichi dell’interazione debole con tutti i leptoni. Recentemente, le Collaborazioni LHCb, BaBar e Belle, misurando il rapporto tra i branching ratio dei decadimenti $B^0\to D^{∗− }\tau^+\nu_{\tau} e $B^0 →D^{∗−}\mu^+\nu_{\mu}, hanno osservato una deviazione dai valori previsti dal Modello Standard di 3.9 deviazioni standard. Questo interessante risultato, se confermato, indicherebbe l’esistenza di nuove particelle, come per esempio il bosone di Higgs carico. Analogamente ai decadimenti del mesone $B^0$ , è possibile cercare effetti analoghi anche nel rapporto di branching ratio dei decadimenti $D^0\to K^ −\mu^+\nu_{\mu}$ e $D^0\to K^−e^+\nu_e$ . In questo lavoro di tesi è stato realizzato uno studio preliminare di questa misura. In particolare, è stato studiata, tramite simulazioni Monte Carlo, la ricostruzione del processo $D^{*\pm}\to D^0 (\to K^− \mu+\nu_{\mu})\pi_s^{\pm}$ nell’esperimento LHCb. Questo canale ha la particolarità di avere una particella invisibile, il neutrino, al rivelatore LHCb. Tuttavia, mediante vincoli cinematici e topologici, è possibile ricavare le componenti dell’impulso del neutrino, con risoluzioni non paragonabili a quelle di una particella visibile, ma comunque accettabili. In questa tesi sono riportati i calcoli che permettono di ottenere queste informazioni ed è stata studiata la risoluzione sulla massa invariante del $D^{∗\pm}$ . La tesi è organizzata nel seguente modo: il primo capitolo riporta le motivazioni della misura dei rapporti dei branching ratio e l’attuale stato sperimentale; il secondo capitolo contiene una breve descrizione del rivelatore LHCb; il terzo capitolo, infine, descrive lo studio di fattibilità della ricostruzione del decadimento $D^0\to K^-\mu^+\nu_{\mu}.
Resumo:
Un problema fondamentale nello studio delle particelle elementari è disporre di misure più accurate possibile delle traiettorie che queste seguono all'interno dei rivelatori. La precisione di misura dei parametri di traccia è importante per poter descrivere accuratamente gli eventi e le interazioni che avvengono all'interno dei rivelatori. LHCb è un esempio di esperimento progettato con lo scopo di ottenere misure di precisione dei parametri della cinematica delle particelle per poter studiare la violazione delle simmetrie. Rivelatori come quello dell'esperimento LHCb utilizzano avanzate tecniche di tracciamento per individuare le traiettorie. Queste sono influenzate da fattori di rumore dovuti all'interazione tra le particelle e il materiale del rivelatore stesso. Nell'analisi delle misure effettuate quindi occorre tenere conto che sia la sensibilità del rivelatore che i fattori di rumore contribuiscono nella determinazione dell'incertezza sulla misura. Uno strumento matematico usato per ottenere precise stime dei parametri di traccia è il filtro di Kalman, che implementato su un campione di misure di una determinata grandezza, consente di minimizzare gli effetti dovuti a rumori statistici. In questo lavoro di tesi sono stati studiati la struttura e il funzionamento del rivelatore dell'esperimento LHCb e dei sistemi di tracciamento che lo caratterizzano e che ne costituiranno il futuro aggiornamento. Inoltre è stata analizzata l'azione del filtro di Kalman, implementandolo in una simulazione di tracciamento al calcolatore.
Resumo:
La gestione del fine vita dei prodotti è un argomento di interesse attuale per le aziende; sempre più spesso l’imprese non possono più esimersi dall’implementare un efficiente sistema di Reverse Logistics. Per rispondere efficacemente a queste nuove esigenze diventa fondamentale ampliare i tradizionali sistemi logistici verso tutte quelle attività svolte all’interno della Reverse Logitics. Una gestione efficace ed efficiente dell’intera supply chain è un aspetto di primaria importanza per un’azienda ed incide notevolmente sulla sua competitività; proprio per perseguire questo obiettivo, sempre più aziende promuovono politiche di gestione delle supply chain sia Lean che Green. L’obiettivo di questo lavoro, nato dalle esigenze descritte sopra, è quello di applicare un modello innovativo che consideri sia politiche di gestione Lean, che dualmente politiche Green, alla gestione di una supply chain del settore automotive, comprendente anche le attività di gestione dei veicoli fuori uso (ELV). Si è analizzato per prima cosa i principi base e gli strumenti utilizzati per l’applicazione della Lean Production e del Green supply chain management e in seguito si è analizzato le caratteristiche distintive della Reverse Logistics e in particolare delle reti che trattano i veicoli a fine vita. L’obiettivo finale dello studio è quello di elaborare e implementare, tramite l’utilizzo del software AMPL, un modello di ottimizzazione multi-obiettivo (MOP- Multi Objective Optimization) Lean e Green a una Reverse Supply Chain dei veicoli a fine vita. I risultati ottenuti evidenziano che è possibile raggiungere un ottimo compromesso tra le due logiche. E' stata effettuata anche una valutazione economica dei risultati ottenuti, che ha evidenziato come il trade-off scelto rappresenti anche uno degli scenari con minor costi.
Modellistica di accensione per candele ad arco elettrico in motori a combustione interna alternativi
Resumo:
Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.
Resumo:
Negli ultimi 50 anni Internet è passata da una piccola rete di ricerca, formata da pochi nodi, ad un’infrastruttura globale capace di connettere più di un milione di utenti. La progressiva miniaturizzazione e la riduzione di costi di produzione dei dispositivi elettronici, permette, tuttora, l’estensione della rete a una nuova dimensione: gli oggetti intelligenti. In questi scenari dove le risorse di rete sono spesso proibitive o la mobilità dei nodi è una caratteristica comune, è necessario che sia garantita forte robustezza a transitori di connessione. Lo dimostra uno studio precedente riguardo ad un applicativo d'agricoltura di precisione denominato Agri-Eagle. In esso vengono confrontate due diverse implementazioni utilizzando il framework SMART M3 e MQTT. Il lavoro di tesi in esame ne estende le considerazioni ed esplora vari metodi per conferire robustezza ad applicazioni sviluppati su SMART-M3. Verrà studiata la funzionalità di Lastwill e Testament proprie di MQTT e se ne tenterà una trasposizione nel mondo semantico. Infine verrà modificato il meccanismo di sottoscrizione in modo da renderlo più robusto a cadute di connessione.