745 resultados para Canale di laminazione, profilo, laminati a caldo, controllo statistico di processo
Resumo:
L’obiettivo della presente tesi è analizzare, attraverso una campagna sperimentale, gli effetti dell’invecchiamento termico su materiali compositi avanzati. Due serie di provini, ottenuti da pannelli di fibra di carbonio/resina epossidica realizzati rispettivamente con le tecniche di produzione tramite laminazione manuale e RTM (Resin Transfer Molding), sono stati condizionati in forno o in congelatore per un determinato tempo e successivamente sottoposti a test di caratterizzazione meccanica. In questo modo sono state confrontate le prestazioni delle due tecnologie al fine di verificare l’applicabilità del processo RTM a prodotti di alta qualità. I campioni, impiegati nel presente studio, sono stati realizzati scegliendo una configurazione cross-ply, che ben si adatta alle successive fasi della campagna. Sui provini ottenuti sono stati eseguiti dei test di resistenza alla delaminazione tramite una pressa con supporti adattati appositamente allo scopo. Questa campagna sperimentale è stata svolta presso i laboratori hangar della Scuola di Ingegneria e Architettura dell’Università di Bologna, sede di Forlì. La caratterizzazione del materiale è avvenuta mediante prove a flessione D2344.
Resumo:
Realizzazione di un sistema di controllo del rumore di combustione prodotto da un motore diesel, tramite l’attuazione in successione di varie tipologie di combustione. In particolare si varia il pattern di iniezione in base ad un indice di rumore calcolato in tempo reale attraverso un microfono e alla produzione di inquinanti allo scarico.
Resumo:
Uno dei principali problemi legati ai metodi di controllo usuali del serraggio riguarda l’impossibilità di avere un'accurata misurazione del precarico del bullone, il quale risulta essere un parametro di grande importanza per prevenire rotture pericolose che possono portare al collasso dell’intera struttura. Si è cercato, dunque, un confronto di misurazioni tra i diversi metodi di controllo del serraggio e quello ad ultrasuoni.
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.
Resumo:
L'obiettivo principale che questa tesi intende perseguire e la progettazione di un sistema di acquisizione 3D a basso costo basato sul metodo di triangolazione a lama laser. A tale scopo si adotterà una telecamera general-purpose, e si provvederà sia alla realizzazione di un prototipo di sistema di attuazione per automatizzare la scansione dell'oggetto, sia all'implementazione di algoritmi per la calibrazione della geometria laser-telecamera, il rilevamento del profilo laser nell'immagine e la sua successiva ricostruzione 3D, tenendo anche conto delle complicazioni che l'uso di oggetti ad alto potere diffusivo apporta a tale problema, a causa dei marcati effetti di subsurface scattering della luce laser. Il sistema di triangolazione sarà validato caratterizzando, mediante il confronto con pezzi di dimensioni note, la precisione e l'accuratezza delle misurazioni, e valutando i tempi di esecuzione degli algoritmi. Inoltre, le prestazioni ed i risultati delle acquisizioni saranno messi a confronto con quelli ottenuti adottando una telecamera high-end dedicata. Lo studio preliminare svolto in questa sede e propedeutico per la futura realizzazione di un sistema per la ricostruzione in camera bianca di protesi d'osso su misura.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
I dispositivi mobili, dagli smartphone ai tablet, sono entrati a far parte della nostra quotidianità. Controllando l’infrastruttura delle comunicazioni, rispetto a qualsiasi altro settore, si ha un maggiore accesso a informazioni relative alla geo-localizzazione degli utenti e alle loro interazioni. Questa grande mole di informazioni può aiutare a costruire città intelligenti e sostenibili, che significa modernizzare ed innovare le infrastrutture, migliorare la qualità della vita e soddisfare le esigenze di cittadini, imprese e istituzioni. Vodafone offre soluzioni concrete nel campo dell’info-mobilità consentendo la trasformazione delle nostre città in Smart City. Obiettivo della tesi e del progetto Proactive è cercare di sviluppare strumenti che, a partire da dati provenienti dalla rete mobile Vodafone, consentano di ricavare e di rappresentare su cartografia dati indicanti la presenza dei cittadini in determinati punti d’interesse, il profilo di traffico di determinati segmenti viari e le matrici origine/destinazione. Per fare questo verranno prima raccolti e filtrati i dati della città di Milano e della regione Lombardia provenienti dalla rete mobile Vodafone per poi, in un secondo momento, sviluppare degli algoritmi e delle procedure in PL/SQL che siano in grado di ricevere questo tipo di dato, di analizzarlo ed elaborarlo restituendo i risultati prestabiliti. Questi risultati saranno poi rappresentati su cartografia grazie a QGis e grazie ad una Dashboard aziendale interna di Vodafone. Lo sviluppo delle procedure e la rappresentazione cartografica dei risultati verranno eseguite in ambiente di Test e se i risultati soddisferanno i requisiti di progetto verrà effettuato il porting in ambiente di produzione. Grazie a questo tipo di soluzioni, che forniscono dati in modalità anonima e aggregata in ottemperanza alle normative di privacy, le aziende di trasporto pubblico, ad esempio, potranno essere in grado di gestire il traffico in modo più efficiente.
Resumo:
L’obbiettivo ultimo di questo elaborato è quello di valutare il rischio per un evento sismico e un evento idrogeologico di tre reti di condotte per la distribuzione dell’acqua, per poter assegnare ai vari gradi di rischio un opportuno intervento. Le condotte delle reti sono identificate con: ID, materiale, pressione nominale, diametro nominale, portata, spessore, tipologia di giunti, rivestimento, protezione catodica, anno di posa, collocazione. Noti i dati, si possono calcolare le classi dei fattori vulnerabilità, esposizione e pericolosità, relativa ad ogni singola condotta e all’intera rete. La vulnerabilità valuta i fattori di suscettibilità e resilienza di una condotta, l’esposizione valuta i costi ad essa associati e la pericolosità valuta la possibilità degli eventi scelti in base alla collocazione fisica della condotta. Le classi sono successivamente combinate per conoscere il rischio della condotta rispetto l’intera rete. Valutato il livello di rischio abbinato al livello di vulnerabilità della condotta, si ottiene l’intervento opportuno per la condotta analizzata.
Resumo:
Il crescente bisogno di infrastrutture di trasporto va inevitabilmente a collidere con la penuria di spazi che caratterizzano le città metropolitane. Per questo motivo ci si orienta sempre più spesso verso soluzioni che riescono a minimizzare lo spazio urbano utilizzato per sopperire ai bisogni legati alla mobilità. Il presente lavoro di tesi è incentrato sul tema del comportamento di scavi a cielo aperto in ambiente urbano, con particolare riferimento agli spostamenti delle strutture perimetrali di sostegno e del terreno a monte, nonché alla caratterizzazione geotecnica dei terreni interessati. In contesti edificati infatti, il controllo degli spostamenti è di fondamentale importanza per ridurre il più possibile il rischio di effetti indesiderati sulle strutture preesistenti. Il lavoro è stato strutturato come segue: Il capitolo 2 è dedicato ai risultati di evidenze sperimentali raccolte da diversi ricercatori con riferimento a un gran numero di casi di studio, che hanno portato alla definizione di correlazioni empiriche tra gli spostamenti, le caratteristiche del terreno e dell'opera di sostegno. Queste costituiscono un primo riferimento per una previsione qualitativa degli spostamenti indotti dagli scavi. Nel capitolo 3 si affronta il caso studio della stazione Dateo della metropolitana M4 di Milano, particolare attenzione viene rivolta alla caratterizzazione tecnologica degli elementi fondamentali, strutturali e geotecnici, che qualificano questo tipo di opere. Nel capitolo 4 vengono sintetizzati i risultati delle campagne geognostiche, ed esposta la caratterizzazione geotecnica dei terreni dell'area in esame. Il capitolo 5 è dedicato alla descrizione di semplici metodi empirici per la stima dei massimi spostamenti indotti dalla realizzazione di scavi profondi. Nel capitolo 6 si presentano le conclusioni del lavoro svolto.
Resumo:
La presente ricerca è stata svolta con l’obbiettivo di valutare le caratteristiche prestazionali di pavimentazioni in conglomerato bituminoso con aggiunta di PFU. Il prodotto è un legante bituminoso modificato, al quale il polverino di gomma da PFU è aggiunto manualmente (meccanicamente) al mescolatore tramite tecnologia Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini. Ai fini di tale studio sono stati stesi 300 metri di SMA lungo la S.P. 569 nel centro abitato di Zola Predosa (BO) durante la quale sono state effettuate le analisi ambientali. Di questi 300 metri, una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Sono state predisposte 3 diverse indagini sperimentali: a 2 mesi dalla stesa (31 Luglio 2014), a 6 mesi e la terza ad 1 anno dalla prima sessione di controllo. Nella prima campagna è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori, mentre per tutte le campagne di prova tutte sono state effettuate analisi per la valutazione dell’aderenza, della tessitura e dell’emissione e assorbimento acustico della pavimentazione. L’elaborato è sviluppato nel seguente modo: sarà prima presentata una panoramica sul problema del riciclaggio di PFU. Verranno poi riportate le norme che regolano l’uso delle strumentazioni utilizzate durante le prove e la trattazione dei dati che ne derivano. Verrà poi descritto il campo prove, la stesa sperimentale e tutti i test effettuati sul sito di Zola Predosa. Successivamente verrà effettuata l’analisi dei dati rispettivamente per l’analisi ambientale, il pendolo, l’altezza in sabbia, l’analisi dei livelli acustici, il LaserProf, lo Skiddomter BV11 e il Laser NextEngine HD. Infine verranno tratte le conclusioni, basate sulle analisi condotte, al fine di valutare il rendimento delle pavimentazioni indagate.
Resumo:
I campi di impiego della gomma da pneumatici fuori uso (PFU) nel settore stradale sono vari ed il numero di studi che comprovano l'utilizzo di questo materiale di riciclo è crescente. Il prodotto esaminato nella seguente ricerca è un legante bituminoso modificato (PmB tradizionale), al quale il poverino di gomma da PFU è aggiunto manualmente (meccanicamente) al miscelatore. La tecnologia è di tipo Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini, direttamente nel conglomerato. Ai fini di tale studio sono stati stesi 300 metri di SMA (Splitt Mastix Asphalt) lungo la S.P. 569 nel centro abitato di Zola Predosa (BO). Di questi una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Durante la stesa sono effettuate delle prove sull'esposizione dei lavoratori a inquinanti presenti in miscele bituminose con addizione di poverino da PFU e prove di esposizione ambientale. Sono state successivamente predisposte 3 diverse indagini sperimentali: la prima nell'arco di due giorni (02-03 Ottobre 2014) a due mesi dalla stesa del materiale (31 Luglio 2014), la seconda oltre sei mesi dalla stesa (14-15 Aprile 2015) e la terza ad 1 anno dalla prima sessione di controllo (Ottobre 2015). Nella prima campagna di indagine è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori. In tutte e tre le campagne di indagine sono state effettuate prove per la valutazione dell'emissione e dell'assorbimento acustico della pavimentazione tramite tecnologia Close Proximity Index (CPX). I dati raccolti riguardati le emissioni ambientali e l'inquinamento acustico sono stati poi analizzati al in di determinare il grado di deterioramento delle caratteristiche superficiali e di confrontare il comportamento dei diversi materiali all'usura.
Resumo:
In questa tesi si affronta lo studio di piastre isotrope e laminate mediante metodo GDQ e si confrontano i risultati con quelli ottenuti, per le stesse tipologie di piastre, mediante metodo FEM. Lo scopo del lavoro e quello di certificare la maggior efficienza del software di calcolo DiQuMASPAB, basato su teorie in forma forte, rispetto ai tradizionali software di calcolo agli elementi finiti attualmente in commercio. Il confronto ha come obiettivo quello di evidenziare i punti deboli dal punto di vista dell'approssimazione delle soluzioni e del costo computazonale.
Resumo:
Se pensiamo ad un generico punto sulla superficie terreste questo sarà soggetto allo spostamento nel tempo della propria posizione, a causa delle deformazioni della crosta terrestre. Se conosciamo l’intensità e la direzione dello spostamento possiamo esprimere la variazione delle coordinate del punto in un sistema di riferimento geodetico , in funzione del tempo. Varie teorie spiegano la causa di tali deformazioni crostali (ES. La Tettonica a Placche) , attribuendo l’origine a movimenti convettivi del mantello, determinati dalla variazione spaziale della densità ed al progressivo rilascio degli sforzi accumulati nella litosfera a causa del peso delle massi di ghiaccio che, hanno ricoperto parte della superficie terrestre nelle glaciazioni passate. Fin dagli anni’80 il GNSS è divento una tra le tecniche più idonee per andare a valutare lo spostamento della crosta terrestre rispetto ad un sistema di riferimento globale e regionale grazie all’elevato grado di precisione conseguibile.
Resumo:
Il presente lavoro riguarda lo studio delle colate detritiche, fenomeno che rappresenta un importante argomento di studio sia per la sua caratterizzazione e analisi a livello scientifico che per attuare una corretta pianificazione e gestione del territorio. Nell’ambiente alpino, ed in particolare nell’area Dolomitica, le colate detritiche rappresentano un fenomeno complesso, le cui caratteristiche di velocità ed intensità, congiuntamente alla difficile previsione temporale, determinano l’alto grado di pericolosità che espone a rischi elevati infrastrutture e persone. Il monitoraggio delle colate detritiche assume quindi una notevole importanza nella determinazione delle condizioni idrologiche e morfologiche che inducono la generazione e la propagazione di tali fenomeni. Il presente lavoro ha come obiettivo la caratterizzazione della risposta idrologica nella zona d’innesco di un canale detritico, localizzato nella Conca Ampezzana. La caratterizzazione è stata definita attraverso l’analisi dei dati ottenuti dal monitoraggio eseguito mediante una stazione di rilevamento appositamente progettata e realizzata.
Resumo:
Questa tesi si pone l'obiettivo di implementare in ambiente Linux un'applicazione di sincronizzazione, chiamata DTNbox, che permetta lo scambio di file tra due nodi di una rete classificabile come Delay-/Disruption-Tolerant Network (DTN), ossia una rete in cui a causa di ritardi, interruzioni, partizionamento, non sia possibile utilizzare l'usuale architettura di rete TCP/IP. E' evidente che i problemi menzionati rendono estremamente più complessa la sincronizzazione fra cartelle rispetto ad Internet, da cui le peculiarità di DTNbox rispetto ad altre applicazioni in rete visto che, ad esempio, non è possibile la sincronizzazione tramite un nodo centrale, come in Dropbox e similari, ma occorre basarsi su comunicazioni peer-to-peer. L'oggetto della mia tesi si è quindi sviluppato principalmente su tre direzioni: • Implementare, utilizzando il linguaggio di programmazione C, le funzionalità previste dal nuovo progetto per Linux • Integrarne e modificarne le parti ritenute carenti, man mano che i test parziali ne hanno mostrato la necessità • Testarne il suo corretto funzionamento Si è deciso pertanto di dare precedenza alla scrittura delle parti fondamentali del programma quali i moduli di controllo, la struttura e gestione del database e lo scambio di messaggi tra due nodi appartenenti ad una rete DTN per poter arrivare ad una prima versione funzionante del programma stesso, in modo che eventuali future tesi possano concentrarsi sullo sviluppo di una interfaccia grafica e sull'aggiunta di nuovi comandi e funzionalità accessorie. Il programma realizzato è stato poi testato su macchine virtuali grazie all'uso dello strumento Virtualbricks.