390 resultados para Magazzino automatico utensili modellazione incremento prestazioni FDM prove sperimentali
Resumo:
“Immaginate di potervi rilassare a casa in una giornata d’estate tenendo le finestre aperte per lasciare passare la brezza ma senza essere disturbati dai rumori della città, oggi è possibile”. Quello che voglio fare attraverso questa tesi è di studiare la fattibilità per la realizzazione di una finestra che permetta il passaggio dell’aria ma non dei rumori. L’idea di questa particolare finestra silenziosa mi è stata fornita dallo studio fatto dal professor Sang-Hoon Kim del Mokpo National University maritime e dal professor Seong-Hyun Lee del Korea Institute of Machinery and Materials in Corea del Sud. Essi hanno utilizzato i metamateriali acustici per risolvere il problema dell’inquinamento sonoro in città. Queste finestre hanno il vantaggio di tenere i rumori fuori dalla nostra abitazione ma permettere il passaggio dell’aria attraverso dei fori aventi dimensioni e posizioni adeguate da garantire questo particolare fenomeno. I principi su cui si basano queste finestre sono: la diffrazione e i risonatori di Helmholtz, che analizzeremo nel dettaglio nei capitoli 1 e 2 di questa tesi. Dopo aver analizzato i due principi attraverso simulazione fatte mediante il programma COMSOL multiphysics, sono passata all’analisi della finestra vera e propria: ovvero alla realizzazione delle dimensioni adeguate dei risonatori di Helmholtz utilizzati, alle dimensioni dei rispettivi fori d’ingresso e alla combinazione di questi risonatori per ricavare la miglior finestra silenziosa, che trattenesse al suo esterno il maggior numero di dB.
Resumo:
A fronte di un notevole incremento di funzionalità e strutture, nell'ambiente Web si sono intrapresi numerosi percorsi volti alla creazione di progetti che vanno a supportare il sovraccarico riversato sul lavoro che i linguaggi e i software sono tenuti a svolgere. Ad oggi il Javascript è uno dei linguaggi maggiormente utilizzati in ambito Web, e si rivela spesso essenziale al corretto sviluppo di applicazioni particolarmente evolute. Questo linguaggio, come è noto, sposta l’elaborazione del codice sul lato client, quindi sarà il Browser a supportare il carico di lavoro. Inoltre, è proprio quest’ultimo ad essere incaricato della gestione delle risorse computazionali locali, necessarie a tutte le operazioni di interpretazione del codice presente nelle pagine Web. Il crescente numero di connessioni da dispositivi mobili e la complessità dei siti Web, aumentano il rischio di avvicinarsi ad un punto critico relativo alla velocità e alle prestazioni dei Browser, in questa direzione sono stati realizzati progetti come asm.js piuttosto che Typescript in grado di velocizzare o incrementare le funzionalità e le prestazioni del linguaggio Javascript. Webassembly vuole integrare i vantaggi proposti da questi linguaggi tramite una meccanica di conversione dei file in formato binario, il quale essendo molto più leggero e veloce, consente una elaborazione molto più performante da parte dei Browser. Questo documento espone una panoramica sulle funzionalità e la progettazione di questo linguaggio, analizzando elementi lessicali e relativi vantaggi rispetto alle tecnologie diffuse fino ad ora. Il quadro generale di questa tesi ci prepara all’apertura di un nuovo scenario molto più ampio e diverso, sostenuto da un approccio al Web strutturalmente innovativo.
Resumo:
La Tesi descrive il progetto di ricerca AALISABETH, un progetto che ha elaborato un sistema automatico per la prevenzione e l'assistenza delle persone anziane oltre i 65 anni. Tramite un sapiente utilizzo della domotica è stato possibile automatizzare l'assistenza sanitaria costante di cui una persona di quell'età ha bisogno, facendo in modo che il medico e i familiari siano sempre a conoscenza dello stato di salute dell'anziano.
Resumo:
Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.
Resumo:
La tesi ha l'obiettivo di analizzare e tradurre in un modello di simulazione il processo di evasione di ordini dal sito di stoccaggio di un’azienda di e-commerce al fine di valutarne le possibili evoluzioni. In prima analisi sono stati evidenziati i principali motivi che spingono i clienti a preferire gli store online rispetto a quelli fisici e come alcuni dei vantaggi siano il frutto dell’efficienza della gestione dell’outbound. Si è passati, quindi, all’esame del caso di studio, alla scomposizione delle singole fasi di lavorazione degli ordini e alla loro traduzione in linguaggio Arena. Il modello ottenuto è stato valutato grazie alla comparazione dei risultati di statistiche automatiche e manuali, frutto della simulazione, con i dati reali. La fase finale ha riguardato, invece, la valutazione in termini di efficienza di una possibile evoluzione del sistema che consiste nell’introduzione di un robot addetto al packing: il modello è stato modificato e le statistiche del caso as-is sono state confrontate con quelle frutto della nuova simulazione. Con i dati utilizzati è stato dimostrato come un unico robot garantisca prestazioni superiori rispetto allo stato attuale e risulti più che sufficiente per la mole di lavoro di una giornata tipo. Nei periodi dell’anno caratterizzati da un aumento esponenziale degli acquisti, tuttavia, potrebbe essere necessario affiancare alla soluzione automatica quella manuale.
Resumo:
Nell’Ottobre 2015, a seguito di alcuni fenomeni di instabilità avvenuti in corrispondenza delle scarpate lato fiume in sponda sinistra del Po, nel tratto compreso tra Casalmaggiore (CR) e Dosolo (MN), l'Agenzia Interregionale per il fiume Po (AIPO) ha commissionato un' estesa campagna di indagini geognostiche. L'ampio database reso disponibile è stato utilizzato in questa tesi di laurea con l'obiettivo di sviluppare, in collaborazione con i tecnici AIPO, una valida procedura per analizzare i dissesti delle scarpate lato fiume in questo tratto del Po e per identificare gli eventuali interventi di messa in sicurezza più idonei. Lo studio proposto si prefigge i seguenti obiettivi: • La caratterizzazione geotecnica dei terreni costituenti le strutture arginali in esame ed il relativo substrato; • La definizione del modello geotecnico del sistema arginale; • La valutazione della stabilità dell'argine; • La individuazione degli interventi di messa in sicurezza delle scarpate. Attraverso l’elaborazione delle prove CPTU è stato possibile determinare la stratigrafia e i parametri geotecnici delle diverse unità stratigrafiche presenti nelle sezioni considerate significative. Sono state quindi effettuate una serie di analisi con il metodo all'equilibrio limite, verificando la stabilità delle scarpate in condizioni di magra ordinaria e in condizioni di rapido svaso. Tenendo conto che la maggior parte dei tratti analizzati aveva già manifestato segni di instabilità o comunque indicava condizioni prossime al limite dell’equilibrio, si è proceduto in "back analysis" alla individuazione dei parametri di resistenza al taglio operativi, tenendo conto della variabilità degli stessi nell'ambito di una stessa unità stratigrafica. Infine tenendo presente i criteri di progetto degli interventi normalmente adottati sulle sponde, è stato possibile procedere alla modellazione di interventi mirati ad aumentare il fattore di sicurezza, analizzandone i relativi vantaggi e svantaggi.
Resumo:
Breve analisi sulla gestione dei rifiuti e simulazione del ciclo termico del termovalorizzatore del Frullo (gruppo Hera, Bologna), con modellazione di due possibili variazioni operative (dettate dal gestore dell'impianto), per valutare la loro fattibilità in termini di miglioramento dell'efficienza elettrica e termica. Conferma dei risultati ottenuti mediante un'analisi economica basata sulla vendita stagionale dell'energia elettrica e termica.
Resumo:
Questo elaborato di tesi ha lo scopo di illustrare un'applicazione realizzata per dispositivi Android in grado di localizzare l'utente all'interno di un ambiente indoor sfruttando l'utilizzo dei Beacon e dare una valutazione dei risultati ottenuti. L'utente potrà registrare i dispositivi Beacon in suo possesso all'interno dell'applicazione, caricare la planimetria di un ambiente e configurarlo indicando esattamente quale Beacon si trova in una determinata posizione. Infine potrà scegliere quale tra i tre algoritmi implementati (Prossimità, Triangolazione e Fingerprinting) utilizzare per visualizzare la propria posizione sulla mappa. I tre algoritmi sono stati sottoposti a vari test che hanno permesso di analizzare le differenze tra di essi in termini di accuratezza e le performance generali dell'applicativo.
Resumo:
Nella società odierna, le telecomunicazioni costituiscono un’esigenza fondamentale della vita quotidiana. Difatti, il mercato della ICT (Information and Communications Technology) è in costante espansione, e viene accompagnato da un rapido sviluppo di nuove tecnologie. In particolare, si assiste a un sempre più rilevante ruolo svolto dalle comunicazioni ottiche, ovvero sfruttanti la luce: in questo contesto, il quale comprende diversi rami ingegneristici, si stanno progressivamente affermando nuove forme di comunicazione basate sulla luce visibile, la cosiddetta Visible Light Communication (VLC). Con questa Tesi ci si propone di implementare con Simulink e stateflow di Matlab il livello MAC (Medium Access Control), basato sullo standard IEEE 802.15.7 per le VLC e valutarne le prestazioni. Prescinde da questa Tesi la parte di implementazione su scheda stessa che è lasciata per sviluppi futuri. Nel capitolo uno si introducono le VLC e si discutono i principali scenari attuali dove possono diffondersi. Nel capitolo 2, si mostrano le principali linee guida afferenti agli standard che sono risultate necessarie per sviluppare lo strato MAC. Nei capitoli 3 e 4 si mostra come il layer sviluppato possa essere utilizzato in due principali situazioni: nel capitolo 3 è descritta la realizzazione di una comunicazione punto-punto, ovvero con un trasmettitore e un ricevitore; nel capitolo 4 è descritta l’implementazione di una rete di nodi, ambito in cui il livello MAC risulta indispensabile. Per ognuna delle situazioni si illustrano scelte e caratteristiche dei sistemi simulati e i risultati ottenuti, cercando di coprire diverse eventualità che intercorrono, più in generale, nella gestione e implementazione di sistemi di telecomunicazione wireless.
Resumo:
Il seguente lavoro di tesi si pone come obiettivo di ottimizzare il mix design di materiali geopolimerici a base di metacaolino in modo da ottimizzare il procedimento di formatura tramite pressatura tipico delle piastrelle ceramiche. La parte iniziale del lavoro sperimentale è stata incentrata sullo studio dell’ottimizzazione delle formulazioni per ottenere impasti geopolimerici a base di metacaolino idonei per la pressatura e il colaggio; sono stati quindi preparate diverse formulazioni ottenute variando diversi parametri di processo, quali il contenuto totale di acqua dell’impasto e la concentrazione di quarzo utilizzato come filler inerte. Su tali mix è stato individuato il processo di formatura più idoneo dal punto di vista di temperatura di consolidamento, modalità e tempi di cottura ed è stato messo a punto il procedimento ottimale per la preparazione dei materiali, procedimento che è stato poi mantenuto per l’intero decorso dello studio. Nella produzione degli impasti si è deciso di eliminare sistematicamente quelle formulazioni che avevano prodotto materiali con peggiori prestazioni fisiche, come alcune formulazioni testate per il colaggio. Successivamente, dopo avere preparato i campioni, su di essi sono state eseguite le prove di assorbimento d’acqua e porosimetria ad intrusione di mercurio, per valutare le caratteristiche fisiche dei vari impasti prodotti, osservazioni al microscopio ottico e al microscopio a scansione elettronica, per analizzare i campioni selezionati dal punto di vista microstrutturale e morfologico e prove al microscopio riscaldante, per studiarne il comportamento alle alte temperature. I risultati ottenuti sono stati messi a confronto con quelli dei materiali ceramici tradizionali, per avere indicazioni sulla potenzialità dei prodotti a base geopolimerica come alternativa alla produzione di piastrelle ceramiche.
Resumo:
Il caso studio del vestibolo ottagonale di Villa Adriana ha dato la possibilità di applicare ad un edificio di notevole valore storico e artistico tecniche di restituzione digitale e di modellazione tridimensionale basate su applicativi di modellazione geometrica, con lo scopo di generarne il modello 3D digitale fotorealistico e polifunzionale. Nel caso specifico del vestibolo, un modello tridimensionale di questo tipo risulta utile a fini documentativi, a sostegno di ipotesi costruttive e come strumento per la valutazione di interventi di restauro. Il percorso intrapreso ha permesso di valutare le criticità nelle tecniche di acquisizione, modellazione e foto-modellazione tridimensionale applicate in ambito archeologico, tecniche usate abitualmente anche in settori quali l’architettura, il design industriale ma anche nel cinema (effetti speciali e film d’animazione) e in ambito videoludico, con obiettivi differenti: nel settore del design e della progettazione industriale il Reverse Modeling viene impiegato per eseguire controlli di qualità e rispetto delle tolleranze sul prodotto finale, mentre in ambito cinematografico e videoludico (in combinazione con altri software) permette la creazione di modelli realistici da inserire all’interno di film o videogiochi, (modelli non solo di oggetti ma anche di persone). La generazione di un modello tridimensionale ottenuto tramite Reverse Modeling è frutto di un processo opposto alla progettazione e può avvenire secondo diverse strategie, ognuna delle quali presenta vantaggi e svantaggi specifici che la rendono più indicata in alcuni casi piuttosto che in altri. In questo studio sono state analizzate acquisizioni tridimensionali effettuate tramite Laser Scan e tramite applicazioni Structure from Motion/Dense Stereo View.
Resumo:
Lo studio, svolto preso il laboratorio di meccanica del volo, ha permesso di studiare le prestazioni di un SARP in configurazione multirotore. Grazie all'ausilio di un banco prova sono stati caratterizzati due sistemi propulsivi. Il programma creato permette di impostare la percentuale di throttle a cui si vuole volare in condizioni di hovering e fornisce la capacità del pacco batterie da utilizzare e l'autonomia di volo consentita.
Resumo:
La tesi presenta un'attività di ottimizzazione per forme di dirigibili non convenzionali al fine di esaltarne alcune prestazioni. Il loop di ottimizzazione implementato comporta il disegno automatico in ambiente CAD del dirigibile, il salvataggio in formato STL, la elaborazione del modello al fine di ridurre il numero di triangoli della mesh, la valutazione delle masse aggiunte della configurazione, la stima approssimata dell'aerodinamica del dirigibile, ed infine il calcolo della prestazione di interesse. Questa tesi presenta inoltre la descrizione di un codice di ottimizzazione euristica (Particle Swarm Optimization) che viene messo in loop con il precedente ciclo di calcolo, e un caso di studio per dimostrare la funzionalità della metodologia.
Resumo:
Nell'elaborato, dopo una breve descrizione di come vengono suddivise le macchine elettriche a seconda che vi siano o meno parti in movimento al loro interno, vengono esaminati inizialmente gli aspetti teorici che riguardano le macchine sincrone a poli lisci ed a poli salienti prendendo in esame anche quelli che sono i provvedimenti necessari a ridurre il contributo dei campi armonici di ordine superiore. Per questo tipo di macchine, spesso utilizzate in centrale per la pruduzione dell'energia elettrica, risultano di fondamentale importanza le curve a "V" e le curve di "Capability". Esse sono strumenti che permettono di valutare le prestazioni di tali macchine una volta che siano noti i dati di targa delle stesse. Lo scopo della tesi è pertanto quello di sviluppare un software in ambiente Matlab che permetta il calcolo automatico e parametrico di tali curve al fine di poter ottimizzare la scelta di una macchina a seconda delle esigenze. Nel corso dell'eleaborato vengono altresì proposti dei confronti su come varino tali curve, e pertanto i limiti di funzionamento ad esse associati, al variare di alcuni parametri fondamentali come il fattore di potenza, la reattanza sincrona o, nel caso di macchine a poli salienti, il rapporto di riluttanza. Le curve di cui sopra sono state costruite a partire da considerazioni fatte sul diagramma di Behn-Eschemburg per le macchine isotrope o sul diagramma di Arnold e Blondel per le macchine anisotrope.
Resumo:
Le prestazioni meccaniche di una miscela di conglomerato bituminoso dipendono principalmente dai materiali che la compongono e dalla loro interazione. La risposta tenso-deformativa delle sovrastrutture stradali è strettamente legata al comportamento reologico del legante bituminoso e dalla sua interazione con lo scheletro litico. In particolare nelle pavimentazioni drenanti, a causa dell’elevato contenuto di vuoti, il legame che si crea tra il legante (mastice bituminoso) e l’aggregato è molto forte, per questo motivo è importante migliorarne le prestazioni. Additivando il mastice con polverino di gomma da PFU (pneumatici fuori uso), non solo si migliorano prestazioni, resistenza alle deformazioni permanenti ed elastoplasticità del materiale, ma si sfruttano anche materiali di recupero, portando vantaggi anche dal punto di vista ambientale. In quest’ottica la ricerca effettuata nella tesi si pone come obiettivo l’analisi reologica e lo studio di mastici additivati con polverino di gomma ricavato da PFU, per la realizzazione di conglomerati bituminosi drenanti. In particolare, partendo da un bitume di base, sono stati preparati due mastici: il primo ottenuto miscelando bitume modificato e filler calcareo, il secondo aggiungendo al precedente anche il polverino di gomma. Tale studio è stato eseguito mediante l’utilizzo del DSR (Dynamic Shear Rheometer – UNI EN 14770), con il quale sono state affrontate tre prove: Amplitude Sweep test, per la valutazione del valore di deformazione di taglio γ entro il quale il materiale si mantiene all’interno del campo di viscoelasticità lineare (Linear visco-elasticity, LVE); Frequency Sweep test, per l’estrapolazione delle master curves; Multiple stress Creep Recovery, per valutare la resistenza del materiale alle deformazioni permanenti. Dall’analisi dei dati è stato possibile definire il comportamento reologico di entrambi i mastici e, in seconda analisi, confrontarne le caratteristiche e le prestazioni.