467 resultados para Progettazione verifica riduttore aereonautico
Resumo:
Il termine Ecomuseo deriva dal greco οἶκος da intendersi come l’insieme delle relazioni all’interno di una comunità e delle interazioni tra la comunità e il territorio. Si tratta di un particolare processo di conoscenza, tutela e valorizzazione del patrimonio locale, materiale e immateriale. In mancanza di una legge quadro nazionale, in Italia finora sono state dodici le regioni e le province a sancire autonomamente l’istituzione e il riconoscimento degli Ecomusei, promuovendone la creazione. La Provincia Autonoma di Bolzano non è ancora dotata di uno strumento normativo per il riconoscimento degli Ecomusei. Si è pertanto valutata la possibilità di applicare lo strumento alle particolari condizioni socio-culturali del territorio sudtirolese. L’indagine è stata svolta a partire dall’analisi dei presupposti necessari alla realizzazione di un Ecomuseo generalmente condivisi dalle normative quali l’omogeneità culturale e la presenza di beni di comunità. Entrambi i criteri hanno richiesto di essere interpretati, sulla base di indagini storiche, sociali e culturali, svolte sotto il profilo architettonico, analizzando non solo la produzione edilizia nel tempo, ma anche i contenuti politici e culturali, la variazione della percezione del costruito da parte della popolazione e la conseguente evoluzione nell’approccio nei confronti della preesistenza. Verificate le condizioni di applicabilità dei criteri si è proceduto alla progettazione di un Ecomuseo Interculturale per la città di Merano (EIM), valutandone oggetto, finalità e struttura. Il progetto ha compreso anche la proposta di una sede per l’Ecomuseo, realizzando uno studio per il restauro di un’officina ferroviaria dei primi del Novecento riconoscendo in essa un importante documento di cultura materiale. In conclusione è stata quindi elaborata una proposta per un progetto di legge provinciale in materia di Ecomusei, quale fattore fondamentale per la loro organizzazione, promozione e diffusione.
Resumo:
L’elaborato è strutturato in sei capitoli ed ha come obiettivo principale quello di descrivere un impianto pilota per il trasporto pneumatico dell’atomizzato di barbottina e di riportare i risultati delle analisi sperimentali, condotte per la caratterizzazione del trasporto dello stesso, necessarie per la futura progettazione di un impianto in scala industriale. Nel primo capitolo verrà presentata l’industria ceramica italiana e le fasi per la produzione delle piastrelle, con particolare attenzione al tema del trasporto di materiale tra i vari reparti produttivi. Nel capitolo due, poi, si analizzeranno le problematiche collegate ai tradizionali sistemi di movimentazione di materiale sfuso, facendo un confronto tra quelli più usati e quello pneumatico. Quest’ultimo rappresenta un’alternativa ai sistemi di trasporto classici, i quali pur assicurando elevati volumi di movimentazione, non salvaguardano l’integrità del materiale trasportato. Lo sgretolamento del materiale, oltre a rendere quest’ultimo inutilizzabile per la produzione delle piastrelle, è responsabile dell’emissione nell'ambiente di lavoro di silice cristallina libera. Al contrario, il trasporto pneumatico, del quale si riporta una descrizione nel capitolo tre e quattro, garantisce il minimo rischio di formazione di polveri fini, grazie al totale confinamento del materiale all'interno di una conduttura. Nel capitolo cinque verranno esposti i risultati delle analisi sperimentali effettuate sull'impianto: verranno illustrate le prove di trasporto condotte e, a valle di ognuna di queste, l’attenzione si focalizzerà sulla granulometria del materiale processato, paragonando la stessa a quella del materiale vergine di riferimento. Infine, nel sesto capitolo, si riporteranno i risultati delle simulazioni effettuate sul software TPSimWin, basato su calcolo agli elementi finiti. Tali simulazioni sono necessarie per determinare le principali caratteristiche del materiale da trasportare.
Resumo:
L’obiettivo della tesi è quello di fare una panoramica sulla strategia BIM e quindi sulla digitalizzazione del processo costruttivo. Grazie alla analisi di un caso di studio, altro obiettivo è quello di analizzare e valutare la metodologia BIM 4D/5D, ossia la gestione dei tempi e dei costi di realizzazione dell’opera. Nella prima fase si affronta il tema del BIM, con una analisi sull’evoluzione degli strumenti di elaborazione e rappresentazione digitale del progetto architettonico, su come questi strumenti si differenzino sia dal punto di vista operativo che concettuale rivoluzionando il flusso di lavoro odierno. Quindi, partendo da un’analisi che e ritrae l’estrema frammentazione del settore delle costruzioni, si va ad analizzare come il BIM aumenti e favorisca la collaborazione delle parti interessate, armonizzando l’intero processo costruttivo dell’opera. Si prosegue con l'esame della diffusione e del livello di maturità degli strumenti BIM, di come i privati e le amministrazioni pubbliche, a livello mondiale, stiano spingendo per favorire l’adozione della metodologia BIM. Inoltre si analizzano le dinamiche dell’interoperabilità, delle metodologie e protocolli di interscambio dati, che sono un elemento chiave per il successo del BIM per via dei numerosi strumenti, specializzati nelle varie discipline del settore edile. Nella terza parte, dedicata al Project Management di un caso di studio, si verifica la bontà delle metodologie teorizzate attraverso la realizzazione di un modello virtuale in Revit. Dal modello realizzato dal laureando sono estrapolate le informazioni necessarie alla gestione, e tramite il software STRVison CPM, si elaborano i principali documenti per la progettazione e gestione del cantiere: il CM, il CME, i tempi operativi, il cronoprogramma Gantt. Obbiettivo è constatare l’effettivo livello di maturità della strategia BIM 4D e 5D e la reale possibilità di un impiego capillare nel panorama italiano del settore delle costruzioni.
Resumo:
Analisi della vulnerabilità sismica degli aggregati edilizi del centro storico di Castelfranco Emilia, contraddistinti dal numero 5,6,7,8,13,14,15,16. Utilizzo del metodo di analisi speditivo ed analitico, con due modalità distinte di calcolo degli indici. Analisi della vulnerabilità delle vie del centro storico di Castelfranco Emilia, in particolare Corso Martiri, Via ripa Superiore e Inferiore, Via Zanasi-P.zza Garibaldi, Via Bertelli, Via Picciolio-Fasani, Via Zanolini-Del Bagno, via Dalla Vacca-Morandi. Definizione dell'indice di vulnerabilità viaria. Classifica di vulnerabilità degli aggregati e delle vie.
Resumo:
Obiettivo di questo elaborato è quello di provvedere alla elaborazione dei dati geometrici necessari alla modellazione dei condotti di aspirazione e scarico di un motore 4 cilindri turbo benzina ad iniezione diretta (GDI) disponibile a banco prove. I dati sperimentali raccolti sono stati elaborati e sintetizzati, con lo scopo di fare avvicinare il più possibile le caratteristiche del modello a quelle del sistema a banco (cercando dunque di rendere il modello il più veritiero possibile). In primo luogo, saranno descritte le principali caratteristiche dei motori a combustione interna, con particolare enfasi rivolta ai componenti ed ai processi che caratterizzano i motori turbo GDI. In un secondo momento, sarà descritto come si è proceduto nella raccolta dei dati necessari alla modellazione e nell’elaborazione degli stessi. Il software cui l’elaborazione dei dati necessari alla modellazione è stata rivolta è GT-Suite, prodotto da Gamma Technologies e largamente utilizzato dalla maggior parte delle aziende del settore automotive.
Resumo:
Nell’Ottobre 2015, a seguito di alcuni fenomeni di instabilità avvenuti in corrispondenza delle scarpate lato fiume in sponda sinistra del Po, nel tratto compreso tra Casalmaggiore (CR) e Dosolo (MN), l'Agenzia Interregionale per il fiume Po (AIPO) ha commissionato un' estesa campagna di indagini geognostiche. L'ampio database reso disponibile è stato utilizzato in questa tesi di laurea con l'obiettivo di sviluppare, in collaborazione con i tecnici AIPO, una valida procedura per analizzare i dissesti delle scarpate lato fiume in questo tratto del Po e per identificare gli eventuali interventi di messa in sicurezza più idonei. Lo studio proposto si prefigge i seguenti obiettivi: • La caratterizzazione geotecnica dei terreni costituenti le strutture arginali in esame ed il relativo substrato; • La definizione del modello geotecnico del sistema arginale; • La valutazione della stabilità dell'argine; • La individuazione degli interventi di messa in sicurezza delle scarpate. Attraverso l’elaborazione delle prove CPTU è stato possibile determinare la stratigrafia e i parametri geotecnici delle diverse unità stratigrafiche presenti nelle sezioni considerate significative. Sono state quindi effettuate una serie di analisi con il metodo all'equilibrio limite, verificando la stabilità delle scarpate in condizioni di magra ordinaria e in condizioni di rapido svaso. Tenendo conto che la maggior parte dei tratti analizzati aveva già manifestato segni di instabilità o comunque indicava condizioni prossime al limite dell’equilibrio, si è proceduto in "back analysis" alla individuazione dei parametri di resistenza al taglio operativi, tenendo conto della variabilità degli stessi nell'ambito di una stessa unità stratigrafica. Infine tenendo presente i criteri di progetto degli interventi normalmente adottati sulle sponde, è stato possibile procedere alla modellazione di interventi mirati ad aumentare il fattore di sicurezza, analizzandone i relativi vantaggi e svantaggi.
Resumo:
Questo elaborato si pone l’obiettivo di dimensionare un prototipo di macchina aggraffatrice, utilizzata per creare la giunzione tra il fondo del barattolo, il corpo del barattolo stesso e la testa o cupola. La progettazione, in particolare, ha richiesto anche la verifica dei motori necessari alla movimentazione della macchina, con particolare attenzione alla fase di arresto di emergenza, in cui le inerzie in gioco risultano essere elevate e la durata del transitorio molto breve. Viene descritta la macchina nel dettaglio, focalizzandosi sulle principali caratteristiche che la rendono peculiare, procedendo poi con la costruzione di un modello cinematico complessivo, seguita dall’analisi cinematica del sistema. Si focalizza, in seguito, sul transitorio durante l’arresto di emergenza e, di conseguenza, sulla verifica dei motori, riducendo i modelli di ciascun sottogruppo della macchina all’albero motore. Il transitorio di emergenza viene analizzato anche con un secondo metodo, dove il dimensionamento del motore viene verificato con l’utilizzo di un software appositamente studiato per la scelta di servomotori. Confronto dei risultati ottenuti
Resumo:
L'elaborato di tesi è stato redatto durante un progetto semestrale in Ferretti Group riguardante il campo di applicazione delle logiche della lean production all'interno del settore della cantieristica navale. Il primo capitolo contiene una descrizione dell'evoluzione del Gruppo Ferretti, dalla nascita fino ai giorni nostri. Nel secondo capitolo vi è una ampia descrizione della filosofia lean e delle tecniche e egli strumenti usati nei contesti aziendali; il terzo capitolo nasce invece per sintetizzare una serie di articoli accademici inerenti al tema del "lean shipbuilding". Infine il quarto capitolo descrive alcune attività eseguite in azienda, a supporto della nascita di una nuova linea di assemblaggio per il modello Ferretti 450.
Resumo:
Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.
Resumo:
L’attività di tesi ha previsto la progettazione e realizzazione di sorgenti di plasma di non equilibrio a pressione atmosferica e l’individuazione delle condizioni operative ottimali per l’idrofobizzazione di materiali tessili. La prima parte delle attività di tesi hanno riguardato lo studio e l’approfondimento della letteratura scientifica al fine di individuare le sorgenti e i processi plasma assistiti per l’idrofobizzazione dei materiali. Relativamente alle sorgenti di plasma di non-equilibrio a pressione atmosferica, studi di letteratura riportano che sorgenti di tipo APPJ (Atmospheric Pressure Plasma Jet) consentono di effettuare un trattamento localizzato in un punto, mentre sorgenti DBD (Dielectric Barrier Discharge) risultano idonee a trattamenti di materiali large area. Per quanto riguarda i processi plasma assistiti, sulla base di quanto riportato in letteratura il processo di idrofobizzazione può avvenire principalmente mediante polimerizzazione di gas organici contenenti fluoro, introdotti nella regione di plasma, con la conseguente deposizione di coating fluorurati. Le attività sperimentali condotte durante la tesi hanno avuto l’obbiettivo di valutare la possibilità di rendere idrofobico un filato di fibra tessile naturale mediante l’utilizzo di una sorgente plasma jet operante con miscela di argon e gas organoflorurato. Il filato, messo in moto a diverse velocità, è stato fatto transitare attraverso la piuma di plasma. In particolare, si è passati da una velocità di movimentazione di 1 m/min a una di 10 m/min. I risultati ottenuti hanno evidenziato che maggiore è la velocità di movimentazione del filato attraverso la piuma di plasma, minore è il grado di idrofibizzazione raggiungibile sul filato stesso, in quanto minore è il tempo di esposizione del materiale al plasma. Infine, nell’ultima parte dell’attività di tesi, è stata progettata una sorgente DBD, che caratterizzata da una maggiore area di generazione del plasma rispetto alla sorgente plasma jet, consente di incrementare il tempo di esposizione del filato al plasma a parità di velocità di movimentazione del filato.
Resumo:
Nell'elaborato viene introdotto l'ambito della Computer Vision e come l'algoritmo SIFT si inserisce nel suo panorama. Viene inoltre descritto SIFT stesso, le varie fasi di cui si compone e un'applicazione al problema dell'object recognition. Infine viene presentata un'implementazione di SIFT in linguaggio Python creata per ottenere un'applicazione didattica interattiva e vengono mostrati esempi di questa applicazione.
Resumo:
Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.
Resumo:
Questo documento di tesi si incentra principalmente sullo studio delle reti wireless mobili e dei relativi scenari di utilizzo. In particolare, come esse vengono applicate per il riconoscimento e la prevenzione di incidenti stradali. Vista l’importanza di questo problema a livello di sicurezza stradale, ho deciso di sviluppare un' applicazione per smartphone Android, in grado di riconoscere le attività di uso quotidiano dell’utente e associarle a dei comportamenti, come ad esempio quello di un ciclista, di un pedone o di un automobilista. Nel caso in cui, in uno scenario stradale i dispositivi si trovassero ad una distanza ravvicinata, possono comunicare tramite una connessione Wi-Fi Direct il loro ruolo e lanciare messaggi di pericolo per avvisare la loro presenza, in modo da prevenire collisioni stradali. La realtà in cui si vuole collocare questa applicazione è quella che viene chiamata Pedestrian Detection, già idea di General Motors, che la sta sviluppando sui futuri veicoli che metterà in produzione nei prossimi anni e che sicuramente integreranno funzionalità aggiuntive per la segnalazione di pericoli tramite smartphone e Wi-Fi Direct.
Resumo:
In questo lavoro di tesi verrà presentata l’implementazione di due algoritmi di Deployment e gestione di uno sciame di dispositivi UAV (Unmanned Aerial Vehicles). L’interesse scientifico su cui si fonda quest'analisi ha origine nelle enormi potenzialità degli UAV che garantiscono un'esplorazione aerea di aree pericolose in contesti di emergenze quali ad esempio scenari post catastrofe. La problematica principale affrontata sarà quella della gestione continuativa dell'area disastrata fornendo un algoritmo di schedulazione della cooperazione degli UAV alternando periodi attivi con quelli di ricarica dei dispositivi.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.