233 resultados para RICICLAGGIO, RIFIUTI, PLASTICA, UBICAZIONE OTTIMALE
Resumo:
La conoscenza dell’età e della crescita dei bivalvi è un requisito fondamentale per uno studio di dinamica di popolazione e per una gestione ottimale della risorsa. Lo scopo di questa tesi è quello di individuare una metodologia valida per riconoscere la precisa natura dell’origine dei microincrementi di crescita nel guscio di Chamelea gallina, riconoscendo le discontinuità annuali all’interno del guscio. Sono stati prelevati gusci di individui di C. gallina provenienti da un precedente campionamento nella baia della Vallugola il 06/09/2013. Le valve sono state incluse in resina epossidica e sezionate dall’umbone al margine centrale e levigate così da poter osservare le fettine ottenute allo stereomicroscopio a luce trasmessa. Il vantaggio riscontrato di questa metodologia è rappresentato dalla inaccessibilità delle strutture di deposizione alle perturbazioni ambientali anche se risulta impossibile annullare i possibili effetti dovuti all’attività di pesca o di altri eventi stressanti. Sono stati individuati solamente organismi con uno o due anni di età. I picchi di rallentamento della crescita sincronizzati in ogni classe di taglia potrebbero indicare tassi di accrescimento costanti entro le classi di taglia. Si può notare inoltre una certa ciclicità con cui si presentano i picchi di rallentamento della crescita. Essi si presentano circa ogni 10-12 crestine corrispondenti ipoteticamente ad una annualità. Un limite di questa metodica è dato dal fatto che si riesce a leggere l’informazione contenuta nel guscio ma, senza una validazione non è possibile associarla ad un preciso periodo di vita dell’organismo. A causa delle tempistiche limitate, non è stato possibile condurre esperimenti di crescita in campo per validare la periodicità delle micro linee di accrescimento ma sarebbe auspicabile in futuro riuscire a svolgere almeno una delle diverse metodiche di validazione.
Resumo:
L’acquifero superficiale della Provincia di Ferrara è caratterizzato dalla presenza di una diffusa contaminazione da Arsenico. Per dare una risposta a questo fenomeno gli Enti della Provincia e del Comune hanno deciso di intraprendere uno studio volto alla determinazione dei valori di fondo del metalloide ed al miglioramento della comprensione del fenomeno. Il lavoro ha portato alla creazione di tre database con i dati presenti negli archivi provinciali inerenti: ubicazione e caratteristiche dei piezometri, dati idrochimici, concentrazione di Arsenico. L’acquifero superficiale è l’A0, olocenico, che si presenta eterogeneo per via della sua evoluzione geologica. Da uno studio stratigrafico ed idrogeologico si è visto come l’area sia costituita, andando da Ovest verso Est, da corpi alluvionali-deltizio-costieri olocenici in eteropia di facies. L’area centro-orientale è caratterizzata da un ciclo sedimentario trasgressivo-regressivo caratterizzato, nella parte superiore, dalla progradazione di un antico delta del Po. In tale ambiente si sono andati formando depositi ricchi in materia organica e in torba. Questi possono assumere una rilevante importanza nello spiegare il fenomeno, poiché possono svolgere sia il ruolo di sorgente dell’Arsenico che di redox driver attraverso la loro decomposizione. Elaborando i dati sono emersi elementi che sembrano confermare l’azione di un meccanismo di dissoluzione riduttiva che rilascia l’Arsenico, come mostrato dai cross plot tra Arsenico e Potenziale Redox, Ferro e Potenziale Redox, Arsenico e Ferro, Ferro e Manganese. L’area è stata suddivisa in tre zone, in cui la centrale corrisponde all’area ricca in materia organica. Sulla base delle tre aree individuate si è proceduto alla creazione di tre popolazioni di dati sottoposte ad analisi statistica. Quindi si è dimostrata l’assenza di contaminazione antropica, si sono esclusi i dati non significativi, si sono trattati i non detected e si sono individuati ed eliminati gli outlier. Infine si è proceduto alla determinazione della migliore distribuzione per ogni popolazione. Fatto ciò si è calcolato il 95° percentile, che è stato assunto come valore di fondo dell’area. Si è visto come tutti i tre valori di fondo superassero la CSC ed in particolare il valore di fondo dell’area centrale risultasse nettamente superiore agli altri due, superando la CSC di circa 10 volte. Questo ad ulteriore conferma della possibile azione della torba nel rilascio di Arsenico.
Resumo:
Grazie al continuo affinamento dell'elettronica di consumo e delle tecnologie di telecomunicazione, ad oggi sempre più "cose" sono dotate di capacità sensoriali, computazionali e comunicative, si parla così di Internet delle cose e di oggetti "smart". Lo scopo di questo elaborato è quello di approfondire e illustrare questo nuovo paradigma nell'ambito dell'automotive, evidenziandone caratteristiche, potenzialità e limiti. Ci riferiremo quindi più specificatamente al concetto di Internet dei veicoli per una gestione ottimale della mobilità su strada. Parleremo di questa tecnologia non solo per il supporto che può dare alla guida manuale, ma anche in funzione del concetto di guida autonoma, di come quest'ultima beneficerà di un'interconnessione capillare di tutti gli utenti, i veicoli e le infrastrutture presenti sulla strada, il tutto in un'ottica cooperativa. Illustreremo quali sono le principali sfide per raggiungere uno scenario del genere e quali potrebbero essere le implicazioni più rilevanti.
Resumo:
La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.
Resumo:
Lo scopo di questa tesi è lo sviluppo di una protesi valvolare sensorizzata per la valutazione e il monitoraggio dei parametri funzionali della valvola e di conseguenza la realizzazione un prototipo di PHV (Prosthetic Heart Valve) che integri all’interno delle protesi valvolari in commercio una tecnologia utile alla realizzazione di queste specifiche. Il segnale di impedenza intravalvolare (IVI) è ottenuto grazie ad un sistema di elettrodi utili alla generazione di un campo elettrico locale e alla successiva registrazione della differenza di potenziale. Il lavoro sperimentale è stato suddiviso in due parti: una prima parte deputata alla scelta della posizione ottimale degli elettrodi rispetto ai lembi, al piano e all’anello valvolare, al fine di determinare due prototipi, ed una seconda parte in cui sono stati testati i prototipi in una situazione più fisiologica, cioè in un tratto di aorta bovina, ed è stata simulata una dinamica valvolare alterata. Il maggior segnale di impedenza riscontrato è stato ottenuto ponendo gli elettrodi ortogonalmente al cardine dei lembi valvolari e sovrapponendo elettrodo di eccitazione e ricezione al fine di ottenere un campo elettrico costante e ricezione puntuale della variazione del campo. Infine è stato riscontrato che il segnale di impedenza intravalvolare è in grado di riflettere alterazioni simulate dei lembi.
Resumo:
I materiali compositi più diffusi sono quelli a matrice polimerica (PMC, Polymer Matrix Composites) con fibre di rinforzo, largamente utilizzati per la loro capacità di conciliare ottima resistenza meccanica con elevata leggerezza. Nel presente elaborato di tesi sono state studiate le caratteristiche meccaniche di materiali compositi a matrice resinosa, epossidica, rinforzati con fibre di carbonio chopped, ovvero fibre spezzate e disposte in modo del tutto casuale all’interno della matrice, mediante analisi microstrutturale e prove di trazione. Viene descritto il processo di produzione delle piastre di materiale composito ottenuto per SMC (Sheet Moulding Compound) da cui sono stati ricavati i provini. Lo studio a livello microstrutturale è stato possibile grazie all’inglobamento nella resina di alcune sezioni dei provini, le cui superfici sono state esaminate al microscopio acquisendo una quantità di immagini tale da permettere la ricostruzione della superficie stessa tramite software ed il calcolo percentuale delle porosità tramite SolidWorks. La caratterizzazione meccanica è stata eseguita utilizzando la macchina per le prove di trazione presente nell’hangar della sede di Forlì della Scuola di Ingegneria e Architettura dell’Università di Bologna: la preparazione dei provini è basata sull’applicazione di tabs di alluminio. I provini in materiale composito sono stati forniti in quattro differenti tipologie riguardanti la pressione a cui sono stati prodotti: 25, 50, 100 e 150 bar. Lo scopo dell’elaborato è stabilire la pressione ottimale di produzione dei provini, a cui il materiale composito mostra le migliori proprietà meccaniche, in particolare la più alta resistenza a carico di trazione. Le prove sono state condotte su provini a tre diverse lunghezze, per diversificare le modalità di stress meccanico. I risultati sono stati poi analizzati per stabilire quale valore di pressione di processo conferisce le migliori caratteristiche meccaniche al materiale.
Resumo:
Si vuole dimostrare la fattibilità di realizzazione di una serie di misuratori di portata fluidi da applicare principalmente per le misure di portata dei fluidi di un motore in prova al banco. Queste portate di interesse riguardano: liquido di raffreddamento, tipicamente acqua a una temperatura prossima ai 100°C, olio lubrificante, tipicamente ad una temperatura di 150°C, aria di aspirazione, BlowBy, aria che filtra dalle fasce elastiche e dalla camera di combustione passa in coppa e quindi presenta goccioline e vapori d'olio, e possibilmente EGR. La prima fase consiste nel valutare ciò che offre il mercato per rendersi conto di quali sono i livelli di prestazione di misura dei sensori commerciali e il loro prezzo. Dunque, oltre alla consultazione di datasheet, segue una richiesta di preventivi ai fornitori di tali prodotti. Conclusa la fasce di analisi di mercato sopra descritta si avvia la fase di design del misuratore. Dopo l'analisi il principio di misura ottimale risulta quello ultrasonico. In particolare è opportuno effettuare una prima distinzione fra misuratori per liquidi e per gas, i quali naturalmente presenteranno differenze geometriche sia per la compatibilità con l'impianto nel quale verranno montati sia per le caratteristiche del fluido di cui interessa la misura. Disegnata a CAD la geometria i due tubi vengono stampati in 3D, dopodichè vengono montati i trasduttori per la generazione e la ricezione degli ultrasuoni. Si effettuano le prove di laboratorio, per liquidi e poi per gas, nel primo caso misurando la portata acqua messa in circolo da una pompa, nel secondo caso misurando la portata aria di un Ducati al banco motori. I dati acquisiti da varie prove vengono poi elaborati tramite Matlab, e si ricavano conclusioni in termini di rumore, accuratezza, ripetibilità ed infine di conferma che è fattibile realizzarli ad un costo contenuto ma che per riuscirci è necessario molto più sviluppo e ottimizzazione.
Resumo:
L'azienda IMA S.p.a., leader nel settore delle macchine automatiche per il packging, intende approfondire la conoscenza sui processi di manifattura additiva con l'obiettivo futuro di riuscire a realizzare il 5% di componenti che compongono le macchine della gamma dell'azienda mediante l'utilizzo di queste nuove tecnologie. Il raggiungimento di tale obiettivo comporta un radicale cambio di mentalità rispetto al passato e la creazione di nuove figure professionali e procedure di progettazione dei componenti totalmente nuove ed innovative. In questo contesto, vengono in aiuto i metodi numerici di ottimizzazione topologica. Noti carichi, vincoli, materiali e geometria d'ingombro del particolare, questi metodi vanno a determinare l'ottimale distribuzione del materiale per ottenere un incremento delle prestazioni del componente, andando a collocare il materiale solo in corrispondenza delle zone dove è strettamente necessario. L'ottimizzazione topologica strutturale, ottenimento della massima rigidezza specifica, è stato proprio l'argomento di questo elaborato. E' stato impiegato il software COMSOL Multiphysics 5.2 per implementare il problema di ottimizzazione. Inizialmente abbiamo affrontato problemi semplici, i cui risultati sono reperibili in letteratura. Dopo aver validato la correttezza della nostra implementazione, abbiamo infine esteso il problema a un caso di studio di un componente di una macchina IMA. Il caso di studio riguardava un componente che esegue l'estrazione della fustella piana dal magazzino in cui l'intero pacco fustelle viene riposto dall'operatore. I risultati ottenuti su questo componente sono stati positivi ottenendo un miglioramento della rigidezza specifica di quest'ultimo. L'obiettivo primario dell'elaborato è stato quello di realizzare una panoramica dei metodi di ottimizzazione topologica e riuscire ad applicare questi ad un caso concreto per valutare se tale tipo di progettazione potesse essere adeguato alle esigenze di IMA. L'obiettivo è stato largamente raggiunto.
Resumo:
High Performance Computing e una tecnologia usata dai cluster computazionali per creare sistemi di elaborazione che sono in grado di fornire servizi molto piu potenti rispetto ai computer tradizionali. Di conseguenza la tecnologia HPC e diventata un fattore determinante nella competizione industriale e nella ricerca. I sistemi HPC continuano a crescere in termini di nodi e core. Le previsioni indicano che il numero dei nodi arrivera a un milione a breve. Questo tipo di architettura presenta anche dei costi molto alti in termini del consumo delle risorse, che diventano insostenibili per il mercato industriale. Un scheduler centralizzato non e in grado di gestire un numero di risorse cosi alto, mantenendo un tempo di risposta ragionevole. In questa tesi viene presentato un modello di scheduling distribuito che si basa sulla programmazione a vincoli e che modella il problema dello scheduling grazie a una serie di vincoli temporali e vincoli sulle risorse che devono essere soddisfatti. Lo scheduler cerca di ottimizzare le performance delle risorse e tende ad avvicinarsi a un profilo di consumo desiderato, considerato ottimale. Vengono analizzati vari modelli diversi e ognuno di questi viene testato in vari ambienti.
Resumo:
La presente ricerca è stata svolta con l’obbiettivo di valutare le caratteristiche prestazionali di pavimentazioni in conglomerato bituminoso con aggiunta di PFU. Il prodotto è un legante bituminoso modificato, al quale il polverino di gomma da PFU è aggiunto manualmente (meccanicamente) al mescolatore tramite tecnologia Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini. Ai fini di tale studio sono stati stesi 300 metri di SMA lungo la S.P. 569 nel centro abitato di Zola Predosa (BO) durante la quale sono state effettuate le analisi ambientali. Di questi 300 metri, una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Sono state predisposte 3 diverse indagini sperimentali: a 2 mesi dalla stesa (31 Luglio 2014), a 6 mesi e la terza ad 1 anno dalla prima sessione di controllo. Nella prima campagna è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori, mentre per tutte le campagne di prova tutte sono state effettuate analisi per la valutazione dell’aderenza, della tessitura e dell’emissione e assorbimento acustico della pavimentazione. L’elaborato è sviluppato nel seguente modo: sarà prima presentata una panoramica sul problema del riciclaggio di PFU. Verranno poi riportate le norme che regolano l’uso delle strumentazioni utilizzate durante le prove e la trattazione dei dati che ne derivano. Verrà poi descritto il campo prove, la stesa sperimentale e tutti i test effettuati sul sito di Zola Predosa. Successivamente verrà effettuata l’analisi dei dati rispettivamente per l’analisi ambientale, il pendolo, l’altezza in sabbia, l’analisi dei livelli acustici, il LaserProf, lo Skiddomter BV11 e il Laser NextEngine HD. Infine verranno tratte le conclusioni, basate sulle analisi condotte, al fine di valutare il rendimento delle pavimentazioni indagate.
Resumo:
L'elaborato analizza l'effetto di additivi WMA e ringiovanenti sulle prestazioni finali del conglomerato bituminoso. Vengono percio citati diversi studi per cercare di capire come l'utilizzo del fresato e degli additivi influisca sulle prestazioni del conglomerato.
Resumo:
Il metodo Hartree-Fock permette di determinare approssimativamente la funzione d'onda e l'energia per atomi a più elettroni in uno stato stazionario. Più in generale, si applica a sistemi quantistici a N-corpi, per studiare, ad esempio, gli elettroni nelle molecole e nei solidi. Il punto di partenza di questo metodo è il modello della particella indipendente; sotto questa ipotesi, ogni elettrone del sistema è descritto dalla propria funzione d'onda. Il contributo di D. R. Hartree allo studio della struttura di atomi complessi consiste nell'aver formulato le equazioni per le funzioni d'onda dei singoli elettroni usando argomentazioni intuitive e nell'avere inoltre proposto, per la loro risoluzione, una procedura iterativa basata sul requisito di autoconsistenza. La generalizzazione del suo metodo, che tiene conto del requisito di antisimmetria imposto dal principio di esclusione di Pauli, fu formulata da V. A. Fock e J. C. Slater. Con tale tecnica si assume che la funzione d'onda totale a N-elettroni sia un determinante di Slater, ovvero un prodotto antisimmetrico di orbitali relativi a singoli elettroni. Il determinante di Slater ottimale si ottiene usando il metodo variazionale per individuare i migliori spin-orbitali.
Resumo:
Nel presente elaborato vengono esposti in maniera esaustiva il processo di stampaggio ad iniezione dei polimeri termoplastici, la simulazione del processo mediante il codice fem fino ad arrivare alla simulazione con il software Autodesk® Simulation Moldflow® di un componente automotive. In particolare viene analizzato tramite simulazione fem il processo di stampaggio ad iniezione dell’asta di spinta del comando frizione in PA66 GF50 evidenziando la previsione dell’orientazione delle fibre di rinforzo.
Resumo:
L'obiettivo della tesi è il confronto tra tre diverse miscele di conglomerato bituminoso attraverso un set di prove in laboratorio. Le prove di tipo iniziali consistono in procedure che determinano la prestazione della miscela di conglomerato bituminoso rappresentativo del prodotto. Le prove di laboratorio ed i campionamenti dei materiali sono state eseguite secondo le prescrizioni del metodo di prova richiamato nella UNI EN 13108-20. • Progetto Il parametro fondamentale di interesse è la lavorabilità del conglomerato. Le miscele esaminate sono: - Binder 0/18 100% Vergine; - Binder 0/18 30% RAP con stesso tenore di bitume finale. Le prove devono determinare la temperatura di compattazione e la % di additivo ottimale in corrispondenza dei quali il prodotto finito Binder 30% RAP è del tutto simile a quello 100% Vergine. Il parametro proposto per il confronto è il tenore di vuoti ad un numero di giri prefissato. Bisogna ricordarsi di scaldare inerti ad una temperatura inferiore (onde evitare l’evaporazione dell’additivo). Il prodotto avrebbe il duplice obiettivo di utilizzare più fresato ed abbassare la temperatura di produzione. - Compattazione 3 campioni Binder 0/18 100% Vergine a 3 differenti temperature per un totale di 9 campioni attraverso Pressa Giratoria - Compattazione 3 campioni Binder 0/18 30% RAP a 3 differenti temperature per un totale di 9 campioni attraverso Pressa Giratoria - Determinazione dei vuoti - ITS (Prova di Trazione indiretta)
Resumo:
I sistemi di localizzazione, negli ultimi anni, sono stati oggetto di numerose ricerche a livello internazionale.Gli sviluppi più importanti hanno avuto inizio nell’ambito stradale con sistemi di navigazione e localizzazione, possibili grazie alle forti capacità del GPS.Infatti il GPS indica l’intero apparato che permette il funzionamento della maggior parte dei navigatori disponibili in commercio, che, però, non sono utilizzabili in ambito indoor, in quanto la ricezione del segnale proveniente dai satelliti GPS diventa scarsa o pressoché nulla. In questo senso, la localizzazione risulta rilevante nel caso di indoor positioning, ossia quando utenti hanno bisogno di conoscere la propria posizione e quella degli altri membri della squadra di soccorso all’interno di un edificio come, ad esempio, i vigili del fuoco durante un’operazione di salvataggio. Sono questi fattori che portano all’idea della creazione di un sistema di localizzazione indoor basato su smartphone o una qualsiasi altra piattaforma disponibile. Tra le diverse tecnologie e architetture legate al posizionamento indoor/outdoor e inerziale, con questa tesi, si vuole esporre la foot-mounted inertial navigation, un sistema che permette di conoscere la propria posizione, sia all’interno di edifici,sia in campi aperti, tramite l’utilizzo di una rete wireless o GPS e l’aiuto di sensori a basso costo.Tuttavia per conoscere la stima ottimale della posizione, della velocità e dell’orientamento corrente di un utente dotato di sensori sarà necessaria l’integrazione di diversi algoritmi, che permettono di modellare e stimare errori o di conoscere e predire la posizione futura dello stesso. Gli scopi principali di questo lavoro sono: 1)Tracciare i movimenti di un utente usando diversi sensori per ottenere una stima ottimale della posizione dello stesso; 2)Localizzare l’utente in 3 dimensioni con precisione; 3)Ottenere una transizione senza interruzioni per un posizionamento continuo tra aree indoor e outdoor;