318 resultados para quaternioni sottogruppi normali gruppo di Galois
Resumo:
Questo progetto di tesi è parte di un programma più ampio chiamato TIME (Tecnologia Integrata per Mobilità Elettrica) sviluppato tra diversi gruppi di ricerca afferenti al settore meccanico, termofluidodinamico e informatico. TIME si pone l'obiettivo di migliorare la qualità dei componenti di un sistema powertrain presenti oggi sul mercato progettando un sistema general purpose adatto ad essere installato su veicoli di prima fornitura ma soprattutto su retrofit, quindi permettendo il ricondizionamento di veicoli con motore a combustione esistenti ma troppo datati. Lo studio svolto si pone l'obiettivo di identificare tutti gli aspetti di innovazione tecnologica che possono essere installati all'interno del sistema di interazione uomo-macchina. All'interno di questo progetto sarà effettuata una pianificazione di tutto il lavoro del gruppo di ricerca CIRI-ICT, partendo dallo studio normativo ed ergonomico delle interfacce dei veicoli analizzando tutti gli elementi di innovazione che potranno far parte del sistema TIME e quindi programmare tutte le attività previste al fine di raggiungere gli obiettivi prefissati, documentando opportunamente tutto il processo. Nello specifico saranno analizzate e definite le tecniche da utilizzare per poi procedere alla progettazione e implementazione di un primo sistema sperimentale di Machine Learning e Gamification con lo scopo di predire lo stato della batteria in base allo stile di guida dell'utente e incentivare quest'ultimo tramite sistemi di Gamification installati sul cruscotto ad una guida più consapevole dei consumi. Questo sistema sarà testato su dati simulati con l'obiettivo di avere un prodotto configurabile da installare sul veicolo.
Resumo:
Oggetto della trattazione è il recupero di energia da parte di una valvola idraulica durante il processo di regolazione del flusso di corrente in un impianto. Questa valvola di regolazione, detta GreenValve, è un brevetto del Politecnico di Milano, ad opera del Prof. Ing. Stefano Malavasi coadiuvato da un gruppo di ricercatori e tesisti, tra i quali spicca il nome di Cecilia Paris. Cecilia ha incentrato il proprio lavoro sull’analisi teorica e sperimentale della “Valvola Verde”, ed è dalla sua Tesi che il suddetto elaborato trae ispirazione.
Resumo:
La disciplina del Risk Management assume recentemente un significato ed un peso crescenti nel panorama delle organizzazioni pubbliche e private. Nel campo delle costruzioni pubbliche, in particolare, l’attuazione di processi strutturati di Gestione del Rischio potrebbe portare ad un efficientamento significativo del processo di costruzione e gestione. Obiettivo di questa tesi è verificare in che modo i risultati di un’applicazione strutturata di un processo di Gestione del Rischio possono essere impiegati dal gruppo di management per perseguire scelte più consapevoli, precise e circostanziate rispetto ai metodi tradizionali di gestione del processo. L’analisi parte da uno studio comparativo dei metodi e delle norme tecniche di Risk Management proposte in ambito internazionale. I risultati ottenuti vengono poi applicati al caso studio relativo al progetto di insediamento del Tecnopolo di Bologna presso l’area nota come Ex-Manifattura Tabacchi. L’applicazione delle tecniche al caso di studio è strutturata come una esecuzione completa del processo di Valutazione del Rischio. La fase di Identificazione viene svolta tramite un’analisi della letteratura, la sottoposizione al giudizio degli esperti, e si conclude con una categorizzazione dei rischi mediante Risk Breakdown Structure. La fase di Quantificazione del Rischio è attuata tramite una prima fase di analisi qualitativa con la somministrazione di un questionario on-line ad una platea di soggetti competenti; seguita da un’analisi quantitativa svolta con il software “RiskyProject®” per realizzare una analisi di Montecarlo ed analisi di sensitività. Al termine vengono esaminate alcune possibili misure di trattamento specifiche per un rischio definito prioritario. I risultati proposti mostrano come sia possibile ottenere in fase preliminare una descrizione consapevole delle incertezze del progetto, e che tale consapevolezza può essere utilizzata con lo scopo di migliorare la qualità e l’efficacia dell’intero processo.
Resumo:
Il Selective Laser Melting è un processo di additive manufacturing che consiste nella realizzazione di componenti metallici tridimensionali, sovrapponendo strati di polvere, che viene via via fusa mediante una sorgente controllata di energia (laser). È una tecnica produttiva che viene utilizzata da più di 20 anni ma solo ora sta assumendo un ruolo rilevante nell’industria. È un processo versatile ma complesso che ad oggi permette di processare solo un numero limitato di leghe. Il presente lavoro di tesi riguarda in particolare lo studio, dal punto di vista microstrutturale, di componenti in acciaio inossidabile austenitico AISI-316L processato mediante Selective Laser Melting, attività svolta in collaborazione con il Gruppo di Tecnologia – Laser del Dipartimento di Ingegneria Industriale. Alla base dell’attività sperimentale è stata svolta anche un’ampia ricerca bibliografica per chiarire lo stato dell’arte sul processo e sulla lega in questione, la microstruttura, i difetti, le proprietà meccaniche e l’effetto dei parametri di processo sul componente finito. Le attività sperimentali hanno previsto una prima fase di caratterizzazione delle polveri di 316L, successivamente la caratterizzazione dei campioni prodotti tramite selective laser melting, in termini di microstruttura e difetti correlati al processo. Le analisi hanno rivelato la presenza di una microstruttura “gerarchica” costituita da melt pool, grani e celle submicrometriche. I difetti rinvenuti sono pori, delaminazione degli strati, particelle di polvere non fuse. Infine è stata eseguita la caratterizzazione frattografica dei campioni sottoposti a prove di trazione e di fatica a flessione rotante (attività condotte dal gruppo Laser) per identificare la morfologia di frattura e i siti di innesco della cricca di fatica.
Resumo:
In questa tesi si sono analizzati campioni di olio di oliva ottenuti anche mediante processo di co- frangitura tra olive e sottoprodotto del pomodoro, al fine di ottenere un olio ricco in licopene. Appena prodotti, gli oli di oliva possono mostrare un aspetto opalescente a causa della presenza di particelle solide e micro-gocce di acqua di vegetazione, che possono contenere microrganismi, principalmente lieviti, provenienti dalla carposfera delle olive che passano nell’olio durante la loro frantumazione. A seconda delle specie di lievito e delle specifiche attività metaboliche possono influenzare anche negativamente la qualità dell’olio. In questo contesto, le attività di laboratorio alla base di questo elaborato sono state finalizzate alla caratterizzazione tecnologica di 30 ceppi di lieviti isolati da olio di oliva prodotto presso il Campus di Scienze degli Alimenti dal gruppo di ricerca della dott.ssa Bendini. In particolare, gli isolati sono stati caratterizzati mediante analisi RAPD-PCR e se ne sono valutate alcune attività enzimatiche quali l’attività proteasica, lipasica, β-glucosidasica, pectinasica e poligalatturonasica e la capacità di degradare alcuni composti fenolici. Sebbene i risultati di questa sperimentazione siano preliminari, sono promettenti in quanto da tale matrice si sono isolati numerosi ceppi che presentano un’ampia e differenziata gamma di attività enzimatiche che potrebbero essere sfruttate per il recupero e/o valorizzazione di componenti organiche ad alto valore dei sottoprodotti dell’industria alimentare.
Resumo:
Con l’ultimo rapporto dell’ IPCC e gli obiettivi che le nazioni del mondo si sono poste in seguito alla conferenza sul clima tenutasi a Parigi nel dicembre del 2015, sono sempre maggiori le soluzioni che si cercano al fine di rendere la società più sostenibile e resiliente per sopportare al meglio le conseguenze dei cambiamenti climatici. Le pareti verdi fanno parte di quelle infrastrutture che si pongono in quest’ottica di sostenibilità e riconciliazione con la natura. In questo elaborato si è cercato di classificare ed esaminare alcune delle tipologie più utilizzate di sistemi di inverdimento verticale, andando ad analizzare la letteratura presente sull’argomento. In particolare ci si è soffermati sugli aspetti di sostenibilità ambientale di tali infrastrutture, con riferimento alla valutazione del loro ciclo di vita e ai benefici da loro apportati, soprattutto quelli riguardanti microclima, diminuzione dell’isola di calore, aumento della biodiversità e miglioramento della qualità dell’aria. Si sono inoltre analizzati aspetti di natura economica e progettuale, mostrando l’utilità di uno strumento quale il “process tree” in quest’ultimo ambito. In seguito, si è preso in considerazione il lavoro del gruppo di ricerca “Terracini in Transizione”, un living-lab della sostenibilità che si svolge nella sede in via Terracini, 28 della facoltà di Ingegneria e Architettura dell’Università di Bologna. Nello specifico si sono osservati alcuni dei progetti e delle analisi svolte dai vari gruppi “pareti verdi” che si sono susseguiti all’interno del corso di “Valorizzazione delle risorse primarie e secondarie” della professoressa Bonoli, tra cui l’analisi di fattibilità di una parete verde da installare nel plesso in via Terracini, l’analisi di substrati di crescita alternativi per pareti vegetate e lo studio, in collaborazione con la facoltà di Agraria, di un substrato innovativo composto da un mix di pannolini usati e fibra di cocco.
Resumo:
Lo scopo di questo lavoro di tesi è stato quello di studiare l’efficacia e l’applicabilità dello strumento HERACLES II Flash Gas Chromatography Electronic Nose mediante l’analisi di un set molto ampio di campioni di oli d’oliva vergini reperiti presso un concorso nazionale. Nello specifico, mediante elaborazioni di statistica multivariata dei dati, è stata valutata sia la capacità discriminante del metodo per campioni caratterizzati da un diverso profilo sensoriale, sia la correlazione esistente tra l’intensità delle sensazioni percepite per via sensoriale ed i dati ottenuti mediante l’analisi strumentale. La valutazione delle caratteristiche sensoriali dei campioni è stata realizzata in occasione dello stesso concorso da parte di un gruppo di giudici esperti e secondo le modalità stabilite dai regolamenti comunitari. Ogni campione è stato valutato da almeno 8 assaggiatori che hanno determinato l’intensità di caratteristiche olfattive (eventuali difetti, fruttato e note secondarie positive) e gustative (amaro e piccante). La determinazione dei composti volatili, invece, è stata condotta mediante lo strumento HERACLES II Electronic Nose (AlphaMOS), dotato di due colonne cromatografiche caratterizzate da diversa polarità (MXT-5 con fase stazionaria apolare e MXT-WAX con fase stazionaria polare), ciascuna collegata ad un rivelatore di tipo FID. L’elaborazione multivariata dei dati è stata realizzata mediante il software in dotazione con lo strumento.
Resumo:
Questo lavoro di tesi ha riguardato lo studio e la caratterizzazione, sia sensoriale che strumentale, di dodici campioni di salame, prodotti utilizzando carne di suino convenzionale o di Mora Romagnola, con lo scopo di evidenziare le differenze esistenti tra i due tipi di prodotto e, nel contempo, discriminare i prodotti ottenuti con carne di Mora Romagnola, da quelli simili, ma meno pregiati, disponibili sul mercato. In particolare, la caratterizzazione sensoriale è stata condotta tramite l’applicazione dell’analisi quantitativo-descrittiva (QDA®), mediante la quale è stato definito il profilo sensoriale dei campioni oggetto di studio. A supporto della messa a punto del profilo sensoriale del prodotto, sullo stesso gruppo di campioni, è stata effettuata un’analisi strumentale, avvalendosi dell’utilizzo di un “occhio elettronico” in grado di effettuare, in tempi estremamente rapidi, un’analisi dell’apparenza del prodotto tramite l’acquisizione di immagini, successivamente elaborate. I dati ottenuti dall’analisi sensoriale e strumentale, elaborati statisticamente con l’utilizzo di tecniche di analisi multivariata, hanno evidenziato come i campioni di Mora Romagnola presentassero una maggiore variabilità rispetto a quelli prodotti con carne di suino convenzionale. Nello specifico, i campioni di Mora Romagnola sono risultati essere maggiormente caratterizzati dagli attributi di “stagionatura” e “speziatura” e da tonalità più scure rispetto ai salami ottenuti mediante carne di suino convenzionale, più descritti da una nota olfattiva acidula e da un’elevata omogeneità di distribuzione del grasso. L’approccio seguito, fondato sulla correlazione dei dati sensoriali e strumentali, rappresenta, quindi, uno strumento potenzialmente utile non solo in un’ottica di caratterizzazione e discriminazione della qualità degli alimenti, ma anche in un’ottica di valorizzazione dei prodotti tipici, fornendo informazioni utili per generare una maggiore consapevolezza nei consumatori in merito alla scelta dei prodotti, ad esempio durante la fase di acquisto.
Resumo:
Con lo sviluppo di sorgenti capaci di sostenere scariche di non equilibrio a pressione atmosferica è nato un notevole interesse per le applicazioni biomediche del plasma, data la generazione nella scarica di una varietà di agenti efficaci in più ambiti. I plasmi di questo tipo, caratterizzati principalmente da una temperatura macroscopica vicina a quella ambiente, sono infatti già utilizzati, ad esempio, per la sterilizzazione, per il trattamento di polimeri per migliorarne la biocompatibilità, e per l’accelerazione del processo di coagulazione del sangue. In questo lavoro verrà presentata un’altra possibilità applicativa, sempre nel settore della plasma medicine, ovvero l’utilizzo dei plasmi per il trattamento di cellule cancerose, che sta avendo un particolare successo a causa dei risultati ottenuti dai vari gruppi di ricerca che sottintendono un suo possibile futuro nel trattamento di neoplasie. Verrà presentata una breve introduzione alla fisica del plasma, mostrando alcuni parametri che caratterizzano questo stato della materia, concentrandosi in particolare sui plasmi non termici o di non equilibrio, per poi passare al processo di ionizzazione del gas. Nel secondo capitolo sono approfondite due sorgenti per la generazione di plasmi non termici, la scarica a barriera dielettrica e il plasma jet. Il terzo capitolo fornisce una preliminare spiegazione degli agenti generati nella scarica e il rapporto che hanno con la materia con cui interagiscono. L’ultimo capitolo è il fulcro della ricerca, e comprende risultati ottenuti negli ultimi anni da vari gruppi di ricerca di molte nazionalità, e una breve parte riguardante la sperimentazione originale svolta anche in mia presenza dal gruppo di ricerca del Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, rappresentato principalmente dal professor Carlo Angelo Borghi e dal professor Gabriele Neretti.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.
Resumo:
Nella tesi studiamo le densità con la proprietà di media per i sub-Laplaciani. In particolare determiniamo un’espressione generale per una densità positiva con la proprietà di media, su un insieme Ω generico che soddisfi certe prorpietà di regolarità. Troviamo inoltre delle stime della funzione di Green e del nucleo di Poisson per un qualsiasi sub-Laplaciano su un generico gruppo di Carnot e tramite queste stime troviamo delle condizioni sufficienti affinchè, con la densità precedentemente trovata, si possa avere una struttura di Γ-tripla sull’insieme Ω. Studiamo infine un problema inverso per il quale sarà fondamentale avere una struttura di Γ-tripla.
Modellistica di accensione per candele ad arco elettrico in motori a combustione interna alternativi
Resumo:
Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.
Resumo:
La determinazione della qualità dell’olio vergine di oliva e la definizione dell’appartenenza del prodotto ad una specifica categoria merceologica (extra vergine, vergine, lampante) può essere ottenuta mediante la valutazione organolettica effettuando il Panel test. Quest’ ultimo è attuato da un gruppo di assaggiatori esperti (panel), guidati da un capo-panel, e ha l’obiettivo di identificare e quantificare i principali attributi sensoriali (positivi e negativi) stabilendo, sulla base dei risultati, la categoria merceologica di appartenenza del prodotto. Lo scopo di questo lavoro di tesi è stato quello di valutare l’applicabilità di un metodo strumentale che, attraverso un approccio di screening rapido, possa supportare l’analisi sensoriale, fornendo una discriminazione degli oli analizzati in funzione della loro qualità (categoria merceologica). Per tale finalità, un set di 42 oli di oliva vergini provenienti dalla Spagna e dalla Croazia, classificati nelle tre categorie merceologiche sulla base del Panel test, è stato analizzato mediante guida d’onda che ha consentito di esaminare le forme d’onda, sia del guadagno che della fase, nell’intervallo di frequenza 1,6 -2,7 GHz. Dai risultati ottenuti, per diversi intervalli di frequenza gli spettri del guadagno sembrano essere influenzati dalla categoria merceologica. Inoltre, l’analisi delle componenti principali (PCA), condotta a partire da tale informazione spettrale, ha consentito, in linea generale, la discriminazione tra oli extra vergini, vergini e lampanti. Infine, la successiva Hierarchical Cluster Analysis ha permesso di identificare clusters distinti per i campioni lampanti e quelli extra vergini e vergini.
Resumo:
Le resine più utilizzate industrialmente per la produzione di materiali compositi sono quelle epossidiche a base di diglicidil etere del bisfenolo A. Tipicamente, a livello industriale vengono utilizzate diammine sintetizzate da precursori tossici per l’ambiente e per l’uomo. Prendendo atto dell’intrinseca pericolosità di questi sistemi, sono state valutate delle alternative per rendere il processo di produzione dei materiali compositi più sostenibile e sensibile verso l’ambiente e la salute degli operatori. Questo progetto di tesi di laurea sperimentale è il proseguimento di un lavoro precedentemente svolto dal gruppo di ricerca che ha individuato l’adenina come un’alternativa non tossica e bio-based agli attuali agenti reticolanti. Nel presente lavoro di tesi, sono stati effettuati studi di formulazione e reticolazione dell’adenina con resine epossidiche commerciali da infusione e da impregnazione già utilizzate a livello industriale. L’obbiettivò è stato quello di ottenere formulati di resina e adenina capaci di dare un prodotto completamente reticolato, utilizzabile commercialmente e con elevati valori di Tg. Le formulazioni più promettenti così ottenute per ogni tipo di resina sono state utilizzate insieme a fibre di carbonio (vergini e riciclate), fibre di lino e di juta per la produzione di materiali compositi a fibra corta. Le formulazioni di resina e i compositi ottenuti sono stati caratterizzati mediante Analisi Termogravimetrica (TGA), Calorimetria Differenziale a Scansione (DSC) e Analisi Dinamico Meccanica (DMA).