148 resultados para Macchine automatiche
Resumo:
L'obiettivo della tesi è la valutazione delle prestazioni delle migrazioni di reti di macchine virtuali. Ci si è concentrati sul trasferimento delle memorie di tali macchine virtuali in quanto è l'azione che maggiormente comporta l'impiego di tempo e risorse. Allo scopo, si è scelto l'approccio pre-copy in quanto utilizzato dagli hypervisor più diffusi. Si è costruito un modello in grado di descrivere il sistema in esame, analizzandolo sia dal punto di vista matematico, che simulativo. Proprio grazie ai simulatori proposti si sono confrontati i valori del tempo di migrazione e del downtime, indici fondamentali per la migrazione in tempo reale, nel caso di trasferimento in serie e in parallelo delle macchine di un insieme. Si sono considerate anche reti di macchine virtuali aventi diversa dimensione delle memorie, analizzando e confrontando, anche questa volta, gli indici di prestazione con quelli degli altri processi. Si è prestata particolare attenzione anche alla caratterizzazione della dirtying-rate, parametro importante dell'approccio pre-copy.
Resumo:
Scopo della tesi è analizzare il modello di migrazione 'pre-copy' e convalidare il simulatore che lo implementa. Modificando opportunamente il codice e facendo delle prove di simulazione in diversi casi, si vogliono riprodurre i grafici che si ottengono applicando il metodo analitico per la migrazine di insiemi di macchine virtuali. Si cerca di fare chiarezza, attraverso un'analisi dettagliata delle varie opzioni, su come i vari parametri fondamentali del sistema influiscono, dal punto di vista quantitativo, sulle prestazioni del sistema stesso.
Resumo:
Partendo dallo studio del modello computazionale introdotto da Schönhage, la presente tesi si propone di fornire una simulazione delle Evolving Graph Structures di Leivant e Marion che ne conservi le proprietà in termini di complessità computazionale.
Resumo:
Questa tesi è nata all'interno dell'ufficio tecnico di I.P.M. Engineering, dove ho potuto analizzare le diverse fasi del processo di formatura dei tubi plastici. I tubi di materiale plastico già da molti anni vengono utilizzati in moltissimi campi, come ad esempio l’edilizia; questo comporta la nascita di linee automatiche in grado di produrre una grande quantità di tubi. Per portare il tubo dal luogo di produzione a quello di utilizzo si è reso necessario il taglio dei tubi e per realizzare reti per il trasporto di gas, liquidi o cavi, si è rivelata fondamentale la nascita del “bicchiere”, una svasatura che consente di collegare due spezzoni tra loro. Nel mio lavoro di tesi sono partito analizzando le varie fasi del processo produttivo dei tubi in materiale plastico e poi mi sono focalizzato sul processo di bicchieratura, che è un processo fondamentale e molto delicato. In seguito all’analisi della bicchieratrice standard, ho studiato una soluzione innovativa, eliminando l’impianto oleodinamico, in modo da renderla più prestazionale, più solida e diminuire i costi di manutenzione. È stato eseguito uno studio della nuova struttura adattata per poter inserire la nuova componentistica. La tipologia di macchina scelta produce tubi di diametro 250 mm, dimensioni intermedie nella gamma prodotta da I.P.M., perché è quella più significativa dal punto di vista della adattabilità. Il nuovo metodo di movimentazione elettromeccanico potrà poi essere utilizzato anche nelle altre macchine di taglia diversa.
Resumo:
La presenza di un magazzino utensili automatico è, al giorno d’oggi, un “must” per qualsiasi centro di lavoro a controllo numerico, in qualunque settore di applicazione, compreso il mondo delle macchine per la lavorazione del legno. Tali dispositivi influenzano in modo importante la produttività e la flessibilità delle macchine su cui vengono installati. In un mercato altamente competitivo e costantemente alla ricerca dell’eccellenza prestazionale, risulta fondamentale offrire soluzioni sempre aggiornate e innovative, senza perdere di vista il target di costo prefissato. Obiettivo di questa tesi è analizzare in ogni suo aspetto un processo di sviluppo di un magazzino utensili automatico a catena di nuova concezione di produzione del Gruppo SCM, destinato a centri di lavoro CNC per la lavorazione del legno. Tale sviluppo è finalizzato a ottenere un prodotto che vada ad ampliare l’offerta e ad incrementare le prestazioni rispetto alle soluzioni attualmente in listino. L’intera trattazione è frutto della collaborazione con l’ufficio tecnico SCM con sede a Rimini. Inizialmente sono descritte la tipologia e la gamma delle macchine su cui viene installato il magazzino, oggetto di questa tesi. Segue una descrizione dell’analisi concettuale da cui nascono i parametri e i principi guida dell’intero sviluppo. Nel terzo capitolo è presentata l’attuale soluzione proposta da SCM, in termini di struttura e di prestazioni, e nel quarto è esposta l’analisi funzionale dei costi dell’attuale soluzione e il raggiungimento del costo obiettivo della soluzione ridotta. Nel quinto capitolo è presentata la caratterizzazione dello stato dell’arte della pinza d’afferraggio utensili e il processo di sviluppo d’incremento prestazionale.
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
In questa questa tesi vengono presentate alcune delle più importanti definizioni di funzione computabile mediante un algoritmo: una prima descrizione è quella data tramite le funzioni ricorsive, un secondo approccio è dato in termini di macchine di Turing, infine, vengono considerati gli algoritmi di Markov. Si dimostra che tutte queste definizioni sono equivalenti. Completa la tesi un breve cenno al lambda-K-calcolo.
Resumo:
Una macchina relativistica è una macchina il cui tempo scorre ad una velocità diversa da quella del tempo reale. Macchine di questo tipo possono essere utili ad esempio per simulare tempi di trasferimento dei dati più veloci, oppure per testare protocolli di sincronizzazione degli orologi. La possibilità di definire la velocità del tempo virtuale è stata aggiunta a User-Mode Linux. Grazie ad una modifica a Marionnet che include un'interfaccia grafica è stato reso semplice il processo di creazione di reti di macchine virtuali relativistiche.
Resumo:
Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.
Resumo:
Studio della trasmissione del moto in teste birotative. Vengono analizzate le caratteristiche delle teste birotative in genere. Vengono imposti gli obiettivi per il progetto di una nuova testa birotativa, che verranno utilizzati per effettuare la scelta di una trasmissione di precisione. E' in seguito riportato un procedimento per la verifica dei servomotori e la definizione del rapporto di trasmissione del riduttore. Vengono infine avviate una fase di studio ed un approccio alla simulazione FEM per il riduttore scelto.
Resumo:
Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.
Resumo:
L’odierno mercato concorrenziale ha portato le aziende a rinnovare il sistema produttivo, spostandosi da un approccio innovativo convergente, in cui le imprese erano le uniche detentrici del controllo dell’intero processo, fin dalla generazione di nuove idee e proposte di innovazione, ad un approccio aperto, denominato Open Innovation, che fa leva sul concetto di flusso libero e bidirezionale di idee e tecnologie tra l’azienda e l’ambiente esterno. È in questo contesto che è stata progettata in Carpigiani una piattaforma e-maintenance chiamata Teorema che, sfruttando un sistema di telemetria, consente di monitorare in tempo reale le macchine installate presso l’utente finale, acquisendo importanti informazioni sul reale utilizzo e sulle effettive funzionalità impiegate dal cliente. Grazie a tale gestione remota, allo stesso tempo è possibile garantire un’efficace operazione di diagnostica e prognostica atte a prevenire eventuali malfunzionamenti. Il presente elaborato fornisce un concreto metodo di utilizzo di tale piattaforma per il monitoraggio real time di macchine per gelato espresso, al fine di verificarne l’effettivo utilizzo da parte del cliente ed il corretto dimensionamento dell’impianto. Per mezzo della piattaforma Teorema è stato inoltre possibile eseguire un’indagine comparativa sui consumi energetici misurati in macchina, testando l’efficienza di funzionamento. Infine è stata eseguita un’analisi FMEA degli allarmi rilevati sul parco di macchine analizzate, per valutare l’affidabilità della macchina e dei suoi componenti.
Resumo:
Gli obiettivi dell'elaborato sono lo studio e la programmazione di un algoritmo di controllo di temperatura per le superfici termosaldanti di macchine per il packaging (confezionatrici in film a file multiple) prodotte dal committente, OMAG srl. L'algoritmo è implementato tramite il software SoMachineMotion v.4.2, prodotto da Schneider Electrics spa. Il controllo è di tipo in anello chiuso in retroazione, con temocoppie e resistenze di riscaldamento con modulazione PWM. Ci si è inizialmente occupati di testare su banco prova varie tipologie di regolatori: a relay, a isteresi, a ricerca diretta del duty cycle, TBH, con approccio misto TBH/integratore di Clegg, PID. I diversi metodi di regolazione sono stati valutati sulla base di una serie di metri di giudizio (precisione dell'inseguimento, prestazioni statiche e dinamiche, flessibilità, peso computazionale, facilità implementativa), pesati secondo i requisiti imposti dal committente. Le metodologie selezionate sono state PID e TBH/Clegg integrator; quest'ultima ha dato risultati assai soddisfacenti, pur essendo un metodo monoparametrico. Si sono quindi studiate diverse modalità per la taratura del regolatore PID, in particolare: tuning in anello chiuso con metodo a relay per la fase di pretuning, algoritmo di Nelder-Mead, per la ricerca diretta continua dei valori che minimizzano l'errore integrale, per un selftuning adattivo. Si è infine proceduto ad implementare le soluzioni individuate in un software robusto, che rispetti gli standard del settore e si sono inoltre sviluppate una serie di funzionalità aggiuntive, quali: modulazione software PWM, preriscaldamento, handling errori/warning, filtraggio segnali in/out. Si è addizionalmente sviluppato un modello matematico predittivo dell'evoluzione del sistema, che potrebbe servire, in un futuro sviluppo, come base per un controllo model-based in cascata al controllo in retroazione studiato.
Resumo:
La presente tesi tratta dello sviluppo e progettazione di sistemi di automazione applicati a Macchine Industriali. Il documento è strutturato come segue: - Capitolo 1: Nel primo capitolo viene illustrata la parte embrionale del progetto, ovvero vengono descritte le prime fasi di natura tecnica nelle quali tramite interazioni con il Cliente vengono acquisite le specifiche,i dati e le informazioni su cui basare il Progetto; - Capitolo 2: Nel secondo capitolo viene mostrato come procedere, una volta recepite le informazioni di carattere generale del progetto desiderato, con lo studio e ricerca della soluzione ingegneristica più idonea in accordo con le Normative vigenti; - Capitolo 3: Nel terzo capitolo viene chiarito lo sviluppo vero e proprio del progetto e la ricerca dei componenti e degli apparati da prevedere; - Capitolo 4: Nel quarto capitolo viene illustrata una delle parti più delicate e importanti del progetto, la direzione lavori, insieme allo svolgimento dei test finali e alla redazione della documentazione finale da consegnare al Cliente; - Conclusioni. Dove ogni capitolo è diviso in due parti, la prima è introduttiva, dove vengono forniti gli strumenti teorici per la trattazione del problema, mentre la seconda è sperimentale e fa riferimento a un progetto da me sviluppato riguardante un Revamping di un sistema di riempimento sacchi.
Resumo:
Questa tesi si propone di analizzare l’influenza della scelta dello spessore della corona statorica sulla saturazione magnetica in un motore asincrono. I dati su cui si basa questo studio sono stati ricavati dall'analisi condotta mediante metodi a Elementi Finiti, utilizzando software appropriati. In conclusione, ci siamo posti di verificare la validità del modello teorico, confrontandolo con i risultati ottenuti sperimentalmente.