1000 resultados para Modellazione,dati sperimentali,Calibrazione,Ottimizzazione
Resumo:
La quantificazione del benzene ematico è un tema di grande interesse nell'ambito della tossicologia occupazionale. La determinazione dell'analita, estratto nello spazio di testa di un vial, è eseguita mediante l'utilizzo di un gascromatografo con rilevatore a ionizzazione di fiamma (GC-FID). Si è cercato di ottimizzare il processo di estrazione del benzene dal sangue allo spazio di testa ed il successivo trasferimento dell'analita nella colonna cromatografica, mediante l'applicazione di un disegno sperimentale fattoriale a tre fattori e due livelli (DoE). I fattori individuati per impostare il piano sperimentale sono stati: variazione della temperatura di incubazione (A) del vial contenente il campione di sangue, pH del campione (B), modulato mediante aggiunta di una soluzione di H2SO4 e forza ionica (C), regolata mediante una soluzione acquosa di NaCl. I livelli scelti per ciascuna variabile sono stati: per A 40 e 60 °C; per B pH naturale del campione e pH a seguito dell'aggiunta di 1 mL di H2SO4 1.8 M; per C FI naturale del campione e FI dovuta all'aggiunta di una soluzione acquosa di sodio cloruro (5 g/L). Dall'analisi dei risultati forniti dal DoE, si è osservato che A, B e C hanno effetti tra loro contrastanti, per questo motivo non sembra essere vantaggioso combinare variabili differenti. In compenso, sia l'aumento di temperatura che l'aggiunta di acido solforico portano a significativi miglioramenti nell'estrazione di benzene dal sangue. Tra i tre trattamenti risulta essere B quello più efficace, motivo per il quale si ritiene che l'aggiunta di una soluzione acquosa di H2SO4 al campione di sangue porti ad una maggiore sensibilità e risoluzione strumentale. Sicuramente la sensibilità del metodo elaborato non può essere paragonata alle tradizionali determinazioni con spettrometro di massa, ma si ritiene possa essere sufficientemente soddisfacente per valutare l'esposizione a benzene dei lavoratori a rischio e come analisi di screening rapida ed economica.
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
Negli ultimi anni si è visto un forte segnale di cambiamento culturale indirizzato verso la sostenibilità affermando sempre più efficacemente i concetti di riciclaggio, riduzione e riutilizzo. Finora il design dei prodotti si è concentrato su aspetti che sfavorivano tale approccio e piuttosto si ponevano come specifica quella di definire a priori la vita del prodotto. Infatti, si sono sempre più sviluppate tecniche di accoppiamento delle parti che una volta accoppiate non consentivano più il disassemblaggio di queste. L’obiettivo di tale elaborato è stato quello di definire, nella famiglia di metodologie chiamata Design for X, un criterio che possa valutare e guidare la progettazione in ottica più mirata verso la riparabilità del prodotto “Design for Repair”. Aumentare la riparabilità del prodotto vuol dire poter aumentare la sua longevità, così da non avere la necessità di sostituirlo con un componente nuovo causando un impatto ambientale doppio, ossia la mancata necessità sia di sfruttare risorse per la realizzazione del sostituto sia di non dover occuparsi del processo di smaltimento del prodotto sostituito.
Resumo:
L’aumento della quantità di inquinanti emessi in atmosfera, legati all’attività antropica che si è osservato negli ultimi anni, ha portato all’emanazione di normative allo scopo di migliorare la qualità dell’aria e mitigare il cambiamento climatico. I settori responsabili di queste emissioni sono molteplici ma quello dei trasporti risulta essere uno dei maggiori indagati, condizione che ha portato ad una maggiore complessità dei motori a combustione interna, cercando così di ridurre l’impatto che hanno sull’ambiente, il clima e la salute umana. Nonostante tutto, l’abbassamento continuo dei limiti massimi, relativi alla quantità di sostanze che possono essere emesse dai veicoli, ha spinto le case automobilistiche a ricercare nuovi sistemi di propulsione. In questo contesto di riduzione degli inquinanti, sta assumendo una posizione di rilievo la scelta di utilizzare l’idrogeno come combustibile alternativo, concetto che verrà approfondito in questa tesi. Tenendo presente che un ciclo motore è suddiviso in 4 fasi: aspirazione, compressione, espansione e scarico, nell’elaborato di questa tesi, verranno analizzate la sola compressione e successiva combustione sfruttando il software di simulazione AVL FIRE. Lo studio prevede la realizzazione di un modello in grado di descrivere e simulare in maniera realistica il fenomeno di combustione dell’idrogeno e la definizione di una procedura per la caratterizzazione dei parametri di iniezione, prestando particolare attenzione all’influenza che questi hanno sul processo di formazione della miscela in modo da giungere ad una configurazione ottimale. Inizialmente sarà utilizzata una geometria con un iniettore a foro singolo posizionato centralmente, la quale progressivamente verrà modificata allo scopo di ottenere una rappresentazione sempre più simile alla condizione reale.
Resumo:
L’attività di tirocinio è iniziata con lo studio dei sottomarini e dei loro apparati. Una volta individuate le criticità del caso di studio è stata avviata una fase di ricerca bibliografica sui materiali e sui relativi processi tribologici coinvolti nello strisciamento tra vite e madrevite. La ricerca si è poi concentrata sui fenomeni di corrosione e sui materiali adatti a contrastarla; in base ai dati raccolti ne è stata selezionata una coppia per vite e madrevite. A questo punto è stata effettuata la modellazione CAD 3D del sistema di sollevamento, modellando i principali elementi del meccanismo, cioè la vite, la madrevite e i componenti che ospitano cuscinetti e guarnizioni. Contemporaneamente alla fase di disegno è stato effettuato il dimensionamento del sistema vite-madrevite e dei dispositivi necessari al suo funzionamento. Durante questa fase è stata progettata una legge di moto della vite tale da consentire prestazioni equivalenti o migliori del sistema idraulico da sostituire. Per la vite, oltre alle verifiche statiche e a fatica, è stato necessario effettuare le verifiche a carico di punta e di velocità critica. Durante i calcoli riguardanti la fatica, sono stati valutati gli effetti dovuti alla presenza della filettatura, calcolando i coefficienti di concentrazione delle tensioni grazie ad apposite simulazioni FEM. Inoltre, è stato dimensionato il collegamento tramite linguetta al motoriduttore. Dopo aver effettuato il dimensionamento statico della madrevite ed eseguito una verifica dei parametri che ne determinano l’usura, sono stati scelti i componenti commerciali come cuscinetti, guarnizioni e tenute. Terminata la fase di dimensionamento dei componenti è stato effettuato un approfondimento relativo al gruppo motoriduttore e al meccanismo frenante. Nei capitoli conclusivi sono stati valutati aspetti come la gestione dei carichi radiali, i test necessari ad ultimare la progettazione e i possibili sviluppi futuri.
Resumo:
Il numero dei decessi per incidenti stradali nel mondo continua ad aumentare secondo ritmi preoccupanti, così come anche il numero dei feriti e i conseguenti costi sociali legati al fenomeno. In Europa, e più in generale nei paesi ad alto reddito, il progresso tecnologico e le azioni legislative hanno permesso di raggiungere importanti successi nel miglioramento della sicurezza stradale con conseguente riduzione del numero dei decessi. Purtroppo però, i numeri testimoniano come ci sia ancora molta strada da percorrere. In questa tesi vengono presentate numerose statistiche aggiornate sul fenomeno dell’incidentalità stradale e vengono analizzate le azioni intraprese a livello europeo volte al raggiungimento degli obbiettivi internazionali ed europei fissati per il 2030 ed il 2050. Viene poi analizzato nel dettaglio il recente Regolamento Europeo 2019/2144 con particolare riferimento al Registratore di Dati di Evento (EDR) rientrante tra gli Advanced Driver Assistance Systems (ADAS) resi obbligatori dallo stesso Regolamento Europeo 2019/2144. A tal proposito viene illustrato, tramite un caso studio verificatosi in Emilia-Romagna, come un dispositivo EDR possa essere utilizzato efficacemente per ricostruire la dinamica di un sinistro stradale.
Resumo:
Il seguente elaborato è il frutto del lavoro di tirocinio svolto in Marelli. L'obiettivo del tirocinio è stato il miglioramento del processo di produzione della Pompa Tender. Questa è la pompa di alimentazione benzina per cui Marelli ha vinto la concessione per diventare unico fornitore per tutte le scuderie partecipanti alle gare di formula 1. Il mondo Motorsport rappresenta un ambiente competitivo dove ogni singolo componente delle auto deve garantire le massime prestazioni ed essere affidabile. La massima cura nella produzione è un requisito minimo per diventare fornitori di questa realtà. Per questo Marelli ha deciso di mettere in dubbio il suo processo di fabbricazione cercando un occhio esterno che potesse mettere a nudo eventuali difetti di produzione. Il miglioramento di processo è stato perseguito analizzando ogni operazione in ottica di Lean Manufacturing. Il lavoro è partito con l'analisi del tempo ciclo di produzione accompagnata dalla rilevazione di Muda e verifiche sul corretto approvvigionamento di materiali e accertamenti sulla funzionalità del layout di stabilimento. Dopo le analisi del caso, sono state prese scelte di miglioramento che vanno dal riadattamento del Layout, eliminazione di colli di bottiglia, modifica sulle fasi di processo, riorganizzazione degli strumenti di lavoro sui banchi di assemblaggio ed eliminazione di cause di contaminazione all'interno della pompa. Questo ha permesso di ridurre il tempo ciclo di produzione del componente e di conseguenza diminuire la saturazione dell'operatore. Inoltre, successivamente si è fatto un lavoro di standardizzazione su tutte le pompe dello stesso tipo prodotte nello stabilimento. Grazie a questa standardizzazione si può parlare adesso di famiglia di pompe ed esse non vengono più trattate singolarmente.
Resumo:
Lo scopo di questa tesi è quello di mostrare le potenzialità e le possibili soluzioni dell’Additive Manufacturing per l’ottimizzazione di macchine elettriche in risposta al problema delle terre rare. Nel primo capitolo viene presentato lo stato dell’arte dell’Additive Manufacturing mostrando una rapida panoramica delle sue caratteristiche principali, le potenzialità future e i settori di utilizzo. Il secondo capitolo propone le principali tecniche di Stampa 3D per la realizzazione di oggetti evidenziando di ognuna i pregi e i difetti. All’interno del terzo capitolo, viene illustrata la struttura di una macchina elettrica mostrando le varie componenti e presentando delle possibili ottimizzazioni realizzate tramite Additive Manufacturing. Nel quarto capitolo vengono presentati esempi di macchine elettriche complete realizzate attraverso le tecniche dell’Additive Manufacturing. Nel quinto capitolo vengono confrontati un Interior Permanent Magnets motor e un Synchronous Relectance Machine.
Resumo:
Negli ultimi anni vi è stato un aumento della sensibilità in merito alle tematiche ambientali e questo ha riguardato anche il settore della mobilità, spingendo sempre più verso l’elettrificazione dei trasporti. Una delle possibilità per elettrificare i trasporti sono le reti filoviarie. Di quelle già esistenti, però, la maggior parte è stata realizzata nel secolo scorso. Inoltre, non vengono effettuate misure per valutare quale sia lo stato del carico sulla rete. In questa tesi si è valutata la fattibilità di realizzazione di un sensore non intrusivo per la misura delle correnti sulle filovie di reti esistenti, al fine di poter ottenere i dati relativi ai flussi di potenza e permettere quindi, in futuro, una migliore gestione della rete. Per effettuare la misura di corrente in modo non invasivo si è pensato di utilizzare un sensore di campo magnetico stazionario. Per valutare l’intensità del campo magnetico, al fine di scegliere il sensore che si confacesse alle caratteristiche dell’applicazione, si è proceduto a sviluppare diversi modelli per rappresentare i conduttori della filovia. Da queste simulazioni è stato inoltre possibile valutare quale fosse la posizione più idonea al collocamento del sensore. Per l’alimentazione del sensore, si sono valutate più possibilità che permettessero di non ricorrere ad un cablaggio ausiliario, tra cui l’utilizzo di un pannello fotovoltaico eventualmente accoppiato ad una batteria. Per la trasmissione dei dati, sono stati valutati più protocolli e dispositivi di comunicazione per trovare quello che meglio combinasse le necessità di trasmissione su distanze medio-lunghe e la necessità di minimizzare i consumi energetici. Infine, sono state effettuate prove sperimentali per validare l'affidabilità delle misure, ovvero verificare che fosse realmente possibile stimare il valore delle correnti nei conduttori della filovia partendo da una misura di campo magnetico, e se i consumi energetici stimati fossero in linea con quelli reali.
Resumo:
Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.
Resumo:
Il seguente elaborato si prefigge l’obiettivo di fornire una panoramica completa ed esau- stiva sullo studio delle statistiche di fotoconteggio, ricavando i fondamentali risultati di natura teorica e al contempo illustrando le procedure di determinazione sperimentale. Il principale risultato conseguibile in tale ambito è l’inequivocabile dimostrazione della natura quantizzata della luce, rendendo definitivamente superato l’alternativo model- lo semiclassico, in cui l’ipotesi di quantizzazione è limitata all’interazione radiazione- rilevatore, mentre la luce viene considerata interamente trattabile come onda. Se infatti entrambi gli approcci forniscono previsioni in accordo con le osservazioni sperimentali per quanto riguarda sorgenti coerenti e termiche, che producono rispettivamente distri- buzioni Poissoniane o Super-Poissoniane, il secondo modello non è in grado di motivare in alcun modo l’esistenza delle distribuzioni Sub-Poissoniane, caratterizzate matemati- camente da una varianza inferiore al valor medio di conteggi ̄n. Il primo capitolo è dedicato a ricavare la forma delle statistiche di fotoconteggio basan- dosi sul modello a fotoni, riportando le più rilevanti dimostrazioni matematiche; il secondo capitolo ha invece l’obiettivo di analizzare i risultati forniti dal modello semi- classico, rivelando la perfetta compatibilità con quelli ottenuti nel capitolo precedente per quanto riguarda sorgenti di tipo classico; nel terzo capitolo si illustra una serie di esperimenti svolti presso il ”Laboratorio di Ottica Quantistica dell’Istituto Nazionale di Ottica-CNR”, nel polo scientifico di Sesto Fiorentino, realizzati con l’obiettivo di confermare la validità delle conclusioni di natura teorica esposte nei primi due capitoli; infine il quarto capitolo si prefigge lo scopo di dare un breve accenno alle distribuzioni di tipo Sub-Poissiano, attraverso una breve trattazione matematica e illustrando alcune modalità di osservazione sperimentale.
Resumo:
L'argomento principale discusso in questa tesi riguarda la proposta di un'attività laboratoriale circa la trattazione di problemi di ottimizzazione unidimensionale in una scuola secondaria di secondo grado. Tale argomento rientra, infatti, tra le voci all'interno dei programmi ministeriali stilati per le classi terze dei Licei Scientifici, come applicazione dello studio e dell'analisi della parabola e come preambolo per la trattazione di problemi isoperimetrici e geometrici. Si tratta, dunque, di risolvere dei problemi di massimo e minimo senza utilizzare la derivata, sfruttando solamente la parabola e l'aspetto grafico del problema. Da qui, l'importanza di soffermarsi sulla visualizzazione corretta della situazione problematica, facendo proprie le potenzialità di software didattici, come GeoGebra, che permettono agli studenti di risolvere le proprie difficoltà. Verrà quindi illustrato il percorso didattico progettato: i risultati teorici elaborati e le modalità di ragionamento; lo sviluppo storico che vi è dietro, soffermandosi sugli studi di alcuni matematici importanti; alcune applicazioni reali dell'ottimizzazione, mostrando specialmente qualche legame con la fisica. Viene riportato, anche, lo svolgimento di alcuni esercizi, confrontando sia la modalità più tradizionale che quella incentrata sulla costruzione grafica su GeoGebra. Nell'ultimo Capitolo, infine, viene fornita una analisi dei feedback e dei risultati relativa all'attività laboratoriale, che è stata presentata all'interno di una classe terza di un Liceo Scientifico: verranno esaminati i livelli di competenze raggiunti e gli eventuali vantaggi offerti da una trattazione di questo tipo.
Resumo:
Questo elaborato mostra lo sviluppo di un plugin per la visualizzazione in Grafana di eventi provenienti dalla piattaforma semantica SEPA (SPARQL Event Processing Architecture). La principale funzione svolta dal SEPA è quella di notificare in modo asincrono i propri client rispetto al cambiamento dei risultati di una query che interroga il sottostante grafo RDF. La piattaforma trova il suo utilizzo in quei contesti caratterizzati da dati dinamici, eterogenei e non strutturati e viene impiegata principalmente come strumento per abilitare l’interoperabilità in domini come per esempio l’Internet of Things. Nasce quindi l’esigenza di disporre di strumenti per il monitoraggio e la visualizzazione di dati real-time. Grafana risulta in questo caso lo strumento ideale data la sua flessibilità, che affiancata alla sua natura open source, lo rende particolarmente interessante per lo sviluppo della soluzione proposta da VAIMEE, spinoff dell’Università di Bologna, ospitato presso il CesenaLab, luogo dove è stato svolto questo lavoro di tesi.
Resumo:
I generatori compatti di neutroni possono rappresentare un grande progresso nell'ambito della Medicina Nucleare. Sono una valida alternativa rispetto ai metodi tradizionali per la produzione dei radioisotopi necessari per la sintesi dei radiofarmaci, e permettono di esplorare e sviluppare nuove metodologie radioterapeutiche innovative, complementari e potenzialmente più efficaci rispetto a quelle già esistenti. Enea sta portando avanti due progetti in questo ambito. Il primo, SORGENTINA-RF, è volto allo sviluppo di una macchina in grado di produrre un fascio di neutroni a 14MeV, con la quale irradiare un target di molibdeno metallico, in modo da ottenere tecnezio-99 metastabile (99mTc), il radioisotopo più usato al mondo nelle procedure di imaging biomedico. Il secondo progetto, LINC-ER, ha lo scopo di progettare le infrastrutture necessarie ad accogliere un generatore compatto di neutroni, il cui scopo sarà quello di eliminare le residue cellule tumorali dopo un intervento chirurgico, a ferita aperta, in modo simile alle attuali tecniche di radioterapia intraoperatoria, che però sfruttano elettroni o raggi X. Questo lavoro di tesi trova posto in questi progetti perché ha contributo a portare avanti le ricerche in due aspetti specifici. Nel caso di SORGENTINA-RF, sono stati studiati tutti gli aspetti radiochimici per ottenere dal molibdeno metallico la soluzione liquida di molibdato sodico da cui si estrae il 99mTc. In questo caso si è deciso di puntare su processo “green” e innovativo basato sull’uso di perossido di idrogeno. Durante la tesi si sono studiati i più importanti fattori che governano questo processo e si è definito un meccanismo chimico che lo spiega. Nel caso di LINC-ER, invece, il lavoro sperimentale è stato quello di studiare metodi e rotte sintetiche nuove per ottenere nanoparticelle di composti di boro e bario, dispersi in hydrogels in grado di amplificare gli effetti del fascio neutronico sui tessuti cancerogeni e ridurli su quelli sani.
Resumo:
L’applicazione degli algoritmi di Intelligenza Artificiale (AI) al settore dell’imaging medico potrebbe apportare numerosi miglioramenti alla qualità delle cure erogate ai pazienti. Tuttavia, per poterla mettere a frutto si devono ancora superare alcuni limiti legati alla necessità di grandi quantità di immagini acquisite su pazienti reali, utili nell’addestramento degli stessi algoritmi. Il principale limite è costituito dalle norme che tutelano la privacy di dati sensibili, tra cui sono incluse le immagini mediche. La generazione di grandi dataset di immagini sintetiche, ottenute con algoritmi di Deep Learning (DL), sembra essere la soluzione a questi problemi.