232 resultados para Fagnano, Giulio Carlo, conte di, marchese de Toschi, 1682-1766.
Resumo:
Una delle metodologie che negli ultimi tempi viene utilizzata più frequentemente per la valutazione ambientale di prodotti, processi e servizi è detta LCA, Life Cycle Assessment: essa valuta l’impatto ambientale associato ad un processo o ad un prodotto considerando tutto il suo ciclo di vita. Nel presente elaborato di tesi la metodologia è applicata ad un processo chimico industriale in fase di studio su scala di laboratorio presso il Dipartimento di Chimica Industriale dell’Università di Bologna, che prevede la sintesi di syngas a partire da biogas tramite le reazioni di dry reformng (DR) e steam refroming (SR). Tale processo è stato studiato poiché a livello teorico presenta i seguenti vantaggi: l’utilizzo di biogas come materia prima (derivante dalla digestione anaerobica dei rifiuti), lo sfruttamento dell’anidride carbonica presente nel biogas e l’utilizzo di un solo reattore anziché due. Il processo viene analizzato attraverso due diversi confronti: in primo luogo è comparato con processi con tecnologie differenti che producono il medesimo prodotto (syngas); in secondo luogo è paragonato a processi che impiegano la stessa materia prima (biogas), ottenendo prodotti differenti. Nel primo confronto i processi confrontati sono uno scenario di Autothermal reforming (ATR) e uno scenario che prevede DR e SR in due reattori separati; nel secondo confronto i prodotti che si ottengono sono: energia termica ed elettrica attraverso un sistema CHP, biometano con un sistema di upgrading del biogas, energia e biometano (CHP + upgrading) ed infine metanolo prodotto da syngas (generato dal processo studiato). Per il primo confronto è risultato che lo scenario che porta ad un minore impatto ambientale è il processo studiato dall'università di Bologna, seguito dallo Scenario con DR e SR in reattori separati ed infine dal processo di ATR. Per quanto concerne il secondo confronto lo scenario migliore è quello che produce biometano, mentre quello che produce metanolo è al terzo posto.
Resumo:
Le normative europee sempre più stringenti in termini di emissioni di inquinanti obbligano le case automobilistiche a ricercare sempre nuove soluzioni per produrre veicoli meno inquinanti e allo stesso tempo più efficienti. Tra gli obiettivi principali per i motori ad accensione comandata, vi è quello di raffreddare la carica all'interno del cilindro per operare su tutta la mappa motore in regime stechiometrico. Molte sono le soluzioni studiate, tra cui si pensa siano efficaci l'applicazione di cicli di sovraespansione e l'iniezione di acqua. Il presente elaborato di tesi si prefigge l'obiettivo di verificare tali ipotesi applicando queste tecnologie ad un motore volto alla ricerca dell'efficienza, sul quale si è applicato un incremento del rapporto corsa- alesaggio. Tale studio è svolto tramite simulazioni tridimensionali CFD. Una valutazione preliminare permetterà di identificare quali parametri possano essere variati per aumentare efficacemente il rapporto C/D. Successivamente si passerà alle simulazioni che si dividono in tre serie per valutare. Il primo gruppo permetterà di determinare quale sia la miglior configurazione tra quelle adottate con la variazione della corsa. Successivamente, ad essa saranno applicate diverse fasature Miller e Atkinson per valutare l'effetto di questi ultimi sul raffreddamento della carica. Infine si applicherà l'iniezione indiretta di acqua ai migliori risultati per confrontare quale tecnologia sia più efficiente. I risultati proposti mirano a migliorare la conoscenza di tali tecnologie, sottolineandone gli aspetti positivi e quelli critici di ognuna di esse.
Resumo:
L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.
Resumo:
Ultimamente si stanno sviluppando tecnologie per rendere più efficiente la virtualizzazione a livello di sistema operativo, tra cui si cita la suite Docker, che permette di gestire processi come se fossero macchine virtuali. Inoltre i meccanismi di clustering, come Kubernetes, permettono di collegare macchine multiple, farle comunicare tra loro e renderle assimilabili ad un server monolitico per l'utente esterno. Il connubio tra virtualizzazione a livello di sistema operativo e clustering permette di costruire server potenti quanto quelli monolitici ma più economici e possono adattarsi meglio alle richieste esterne. Data l'enorme mole di dati e di potenza di calcolo necessaria per gestire le comunicazioni e le interazioni tra utenti e servizi web, molte imprese non possono permettersi investimenti su un server proprietario e la sua manutenzione, perciò affittano le risorse necessarie che costituiscono il cosiddetto "cloud", cioè l'insieme di server che le aziende mettono a disposizione dei propri clienti. Il trasferimento dei servizi da macchina fisica a cloud ha modificato la visione che si ha dei servizi stessi, infatti non sono più visti come software monolitici ma come microservizi che interagiscono tra di loro. L'infrastruttura di comunicazione che permette ai microservizi di comunicare è chiamata service mesh e la sua suddivisione richiama la tecnologia SDN. È stato studiato il comportamento del software di service mesh Istio installato in un cluster Kubernetes. Sono state raccolte metriche su memoria occupata, CPU utilizzata, pacchetti trasmessi ed eventuali errori e infine latenza per confrontarle a quelle ottenute da un cluster su cui non è stato installato Istio. Lo studio dimostra che, in un cluster rivolto all'uso in produzione, la service mesh offerta da Istio fornisce molti strumenti per il controllo della rete a scapito di una richiesta leggermente più alta di risorse hardware.
Resumo:
In questo elaborato vengono presentati i risultati di una attività sperimentale incentrata sulla ricerca di membrane a matrice mista per la separazione di gas da miscele. In questo lavoro viene descritta la preparazione di membrane in polisulfone e membrane a matrice mista polisulfone con ZIF-8 a quattro diversi caricamenti percentuali, PSf+ZIF-8 2%, 4%, 8% e 16%. Vengono anche esposti i risultati delle prove di caratterizzazione di tali membrane. E' stato condotto un esame attraverso microscopia elettronica a scansione (SEM) sulla sezione e sulla superficie delle cinque membrane. Sono esposti i risultati dei test di permeazione condotti attraverso un permeometro a volume costante. Le prove sono state fatte per tutte le membrane con sei diversi gas penetranti (H2, He, O2, CO2, CH4 e N2) a tre diverse temperature (35°C, 50°C e 65°C) ottenendo i valori dei coefficienti di permeabilità, solubilità e diffusività. Sono state calcolate le selettività ideali per ogni coppia di gas per tutte le membrane e le energie di attivazione. Sono stati fatti paragoni con i risultati di letteratura e ricercate correlazioni predittive per le proprietà di trasporto delle membrane in funzione di diversi parametri.
Resumo:
In questo lavoro di tesi si è voluta creare una metodologia solida per la generazione di geome-trie banchi di flussaggio stazionario, sia per Tumble che per Swirl, a varie alzate valvole (in questo caso solo aspirazione, ma estendibile anche a quelle di scarico), avvalendosi del soft-ware SALOME; seguite da creazione griglia di calcolo e infine simulazione in ambiente Open-FOAM. Per prima cosa si è importata la geometria creata in un CAD esterno e importata in SALOME in formato STEP. A seguito si sono posizionate le valvole all’alzata da simulare, insieme alla creazione del falso cilindro, diversificato tra il caso Tumble e Swirl. Si è importato il file del banco di flussaggio, in formato STL, in snappyHexMesh e generata la griglia; questa è stata utilizzata per la simulazione in ambiente OpenFOAM, utilizzando l’utility rhoPorousSimpleFoam. Infine, si sono estratti i dati per il calcolo di grandezze utili, coppia di Tumble/Swirl e portata in massa, oltre alla creazione di immagini di visualizzazione campi di moto, utilizzando il post processore ParaView. In parallelo si è sviluppata l’automatizzazione delle varie fasi servendosi sia di script scritti in python che in bash.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
Negli ultimi anni la forte evoluzione tecnologica ha avuto un impatto significativo su un ampio numero di settori ed in particolar modo sull’industria manifatturiera, specie in quelle aziende che hanno saputo cogliere le opportunità di business che essa ha generato. La forte dinamicità dei requisiti con cui si sono trovati a fare i conti gli sviluppatori software, ha portato alla stesura, poco più di vent’anni fa’, dell’oramai noto "Manifesto per lo Sviluppo Agile di Software" all’interno del quale sono introdotti i principi cardini che in un secondo momento hanno contribuito alla formazione dell’approccio Agile. Questa occasione ha senza dubbio cambiato radicalmente l’ottica con cui era sempre stato visto, almeno fino a quel momento, il classico processo utilizzato per concepire e successivamente sviluppare il codice: costituito da una sequenza di fasi predefinite, dove l’insieme dei requisiti era definito nella sua interezza, prima della fase di effettiva implementazione. Il metodo di lavoro più "tradizionale" non rappresenta un approccio sbagliato o inefficace ma è una modalità che si prestava bene ad essere impiegata in scenari dove il concetto di business assumeva connotati diversi rispetto a quello degli ultimi anni, caratterizzati da un’elevata incertezza, repentini cambiamenti e alta probabilità di dover ridefinire i requisiti, al contrario i cambiamenti avvenivano con una scarsa frequenza e per questo risultavano facilmente gestibili. La presente attività di tesi si propone di analizzare i maggiori vantaggi e le principali criticità, che l’impiego di metodologie Agile devono affrontare all’interno di un contesto manifatturiero ed in particolare in un caso di studio reale: un’iniziativa progettuale per la realizzazione di distinte di servizio e istruzioni di montaggio e smontaggio elettroniche all’interno dell’organizzazione Bonfiglioli S.P.A., una multinazionale leader nella produzione e nella vendita di riduttori e motoriduttori.
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
La costante ricerca e lo sviluppo nel campo degli azionamenti e dei motori elettrici hanno portato ad una loro sempre maggiore applicazione ed utilizzo. Tuttavia, la crescente esigenza di sistemi ad alta potenza sempre più performanti da una parte ha evidenziato i limiti di certe soluzioni, dall’altra l’affermarsi di altre. In questi sistemi, infatti, la macchina elettrica trifase non rappresenta più l’unica soluzione possibile: negli ultimi anni si è assistito ad una sempre maggiore diffusione di macchine elettriche multifase. Grazie alle maggiori potenzialità che sono in grado di offrire, per quanto alcune di queste siano ancora sconosciute, risultano già essere una valida alternativa rispetto alla tradizionale controparte trifase. Sicuramente però, fra le varie architetture multifase, quelle multi-trifase (ovvero quelle con un numero di fasi multiplo di tre) rappresentano una soluzione particolarmente vantaggiosa in ambito industriale. Infatti, se impiegate all’interno di architetture multifase, la profonda conoscenza dei tradizionali sistemi trifase consente di ridurre i costi ed i tempi legati alla loro progettazione. In questo elaborato la macchina elettrica multi-trifase analizzata è una macchina sincrona esafase con rotore a magneti permanenti superficiali. Questa particolare tipologia di macchina elettrica può essere modellizzata attraverso due approcci completamente differenti: uno esafase ed uno doppio trifase. Queste possibilità hanno portato molti ricercatori alla ricerca della migliore strategia di controllo per questa macchina. L’obiettivo di questa tesi è di effettuare un’analisi comparativa tra tre diverse strategie di controllo applicate alla stessa macchina elettrica multi-trifase, analizzandone la risposta dinamica in diverse condizioni di funzionamento.
Resumo:
Il rapido sviluppo dell'economia e della tecnologia ha portato rapidi cambiamenti nella vita delle persone. Solo avendo un sonno di alta qualità possiamo dare il meglio ed essere veramente produttivi e produttivi.Invertire giorno e notte, procrastinare il sonno e stare alzati fino a tardi sono diventate abitudini comuni delle persone moderne. Queste cattive abitudini del sonno hanno un impatto sulla salute fisica, sull'efficienza del lavoro e dello studio e sulla vita delle persone. Miatal Tracker è un software di monitoraggio del sonno per i mercati europeo e americano e fornisce anche molti audio per dormire, corsi di meditazione e conoscenze relative al sonno. Durante il mio tirocinio, il team ha scoperto che i nostri prodotti sono meno differenziati da prodotti simili sul mercato. Per aiutare meglio gli utenti a risolvere i problemi di insonnia e migliorare la qualità del sonno, estraiamo metodi di terapia comportamentale dalla CBT-I migliorando così l'insonnia. Basato sulla progettazione della persuasione e della guida, migliora l'esecuzione dei comportamenti target e aiuta gli utenti a formare buone abitudini di sonno. Dal punto di vista del design, vengono studiate le ragioni di questi fenomeni e, combinate con le pertinenti conoscenze di psicologia e scienze comportamentali, viene esplorato come aiutare le abitudini di lavoro e di riposo delle persone. Prendendo questo come un'idea di design, la progettazione di prodotti e software applicativo si basa sulla progettazione del prodotto, integrata da applicazioni software, che combinano abitudini del sonno, prodotti e monitoraggio del sonno per formare un sistema di prodotti di promemoria, simboli e feedback, aiutando gli utenti a formare un buon sistema di prodotti Le abitudini del sonno, attraverso una guida non coercitiva, cambiano gli atteggiamenti e i comportamenti degli utenti verso l'obiettivo di ottenere un sonno di qualità.
Resumo:
Questa relazione descrive le caratteristiche principali del rilevamento geologico effettuato nel settore orientale dell’Isola d’Elba nel mese di giugno 2021. Lo scopo del campo è stato quello di applicare e consolidare le nozioni apprese durante il corso di laurea, al fine di produrre una carta geologica. Nello specifico, la prima parte del campo è stata dedicata a un’introduzione della geologia elbana, sotto la guida dei professori Giulio Viola e Gianluca Vignaroli. In seguito, gli studenti sono stati divisi in gruppi di rilevamento e, ad ogni gruppo, è stata assegnata un’area da cartografare in scala 1:5000. All'interno della relazione, oltre alla breve descrizione dei principali eventi relativi allo sviluppo dell'Appennino settentrionale e della stratigrafia presente dell'Isola d'Elba orientale, sono riportati i risultati e le conclusione del rilevamento effettuato sul campo.
Resumo:
L’aumento crescente della domanda di idrocarburi a livello mondiale ha determinato un progressivo aumento dell’estrazione “offshore” e del trasporto via mare di petrolio. In questo contesto non sono da escludersi incidenti e conseguenti sversamenti di olio in mare. Sversato sulla superficie del mare, l’olio, subisce una serie di trasformazioni chimico-fisiche che prendono il nome di “processi di weathering”. In base alla quantità di prodotto rilasciato, i rilasci di olio possono portare ad ingenti danni ambientali, minando la sopravvivenza degli ecosistemi contaminati dall’olio. La condizione di rilevante criticità ambientale prodotta da uno sversamento accidentale di olio richiede la preparazione di precisi piani di intervento. Tipicamente le azioni intraprese hanno lo scopo di attuare la riduzione della massa di olio galleggiante e di evitare lo spiaggiamento dell’olio. Il presente lavoro di tesi si colloca nell’ambito della modellazione matematica degli sversamenti superficiali di olio in mare, al fine di quantificare l’influenza delle diverse azioni di emergenza sull’olio sversato. Lo scopo della tesi è quello di testare un software denominato ROC - Response Options Calculator, per simulare i fenomeni di weathering degli sversamenti di olio in presenza di azioni di emergenza di diversa tipologia. Il lavoro di tesi è suddiviso come segue: il capitolo 1 ha un ruolo introduttivo; nel capitolo 2 è descritto in dettaglio il software ROC; nel capitolo 3 è presentata l’applicazione del codice ad un caso di studio rappresentato da una piattaforma “offshore”, per la quale sono considerati 3 differenti scenari di rilascio accidentale sulla superficie del mare, a ciascuno dei quali corrisponde una diversa risposta all’emergenza ed un diverso insieme di risorse; nello stesso capitolo è inoltre presentata l’applicazione di un’equazione per la progettazione della risposta meccanica ad uno dei rilasci del caso di studio; il capitolo 4 riporta alcune considerazioni conclusive.
Resumo:
The established isotropic tomographic models show the features of subduction zones in terms of seismic velocity anomalies, but they are generally subjected to the generation of artifacts due to the lack of anisotropy in forward modelling. There is evidence for the significant influence of seismic anisotropy in the mid-upper mantle, especially for boundary layers like subducting slabs. As consequence, in isotropic models artifacts may be misinterpreted as compositional or thermal heterogeneities. In this thesis project the application of a trans-dimensional Metropolis-Hastings method is investigated in the context of anisotropic seismic tomography. This choice arises as a response to the important limitations introduced by traditional inversion methods which use iterative procedures of optimization of a function object of the inversion. On the basis of a first implementation of the Bayesian sampling algorithm, the code is tested with some cartesian two-dimensional models, and then extended to polar coordinates and dimensions typical of subduction zones, the main focus proposed for this method. Synthetic experiments with increasing complexity are realized to test the performance of the method and the precautions for multiple contexts, taking into account also the possibility to apply seismic ray-tracing iteratively. The code developed is tested mainly for 2D inversions, future extensions will allow the anisotropic inversion of seismological data to provide more realistic imaging of real subduction zones, less subjected to generation of artifacts.
Resumo:
Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.