364 resultados para Macchine automatiche
Resumo:
La tesi si intitola "Progettazione della produzione a flusso delle linee di lavorazione e taglio: Il caso Fom Industrie". Si tratta della progettazione di una linea a flusso continuo per le fasi di montaggio meccanico della Linea LT-LMT prodotta dall'azienda. Lo scopo consiste nel conferimento di una maggior efficienza al ciclo produttivo attraverso l'analisi dei tempi ciclo e delle operazioni di montaggio. Nell'elaborato vengono introdotti alcuni dei principi che caratterizzano la Lean Manufacturing spiegando i metodi utilizzati durante la progettazione. Si prosegue con una presentazione dell'azienda facendo riferimento al contesto nella quale è inserita e analizzando il bilancio di esercizio. Viene analizzata la situazione AS-IS riponendo l'attenzione sulla rilevazione delle criticità, sull'osservazione del Layout e sulle problematiche relative allo stoccaggio e approvvigionamento dei materiali. Durante questa fase di analisi sono stati effettuati dei rilievi cronometrici da cui emergono alcuni dati che sono stati interpretati confrontandoli con il tempo di Takt Time calcolato. Successivamente sono state descritte le modifiche tecniche e di ciclo per implementare alcuni miglioramenti nel ciclo produttivo e di conseguenza avere una riduzione dei tempi di montaggio. A questo punto si entra nel cuore della progettazione della produzione a flusso tramite il bilanciamento del lavoro di un operatore addetto al montaggio conseguentemente ad alcune considerazioni effettuate sul tempo impiegato. Si prosegue con il bilanciamento della linea a flusso comprendendo le fasi di picking per arrivare a definire la situazione TO-BE. La situazione futura prevede la standardizzazione di diversi aspetti tra cui la redazione di istruzioni operative e la gestione del materiale necessario a svolgere le operazioni di montaggio. é stato infine progettato il Layout della nuova zona di montaggio concludendo con una valutazione tecnico-economica delle modifiche progettate.
Resumo:
La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.
Resumo:
Il mondo della moda è in continua e costante evoluzione, non solo dal punto di vista sociale, ma anche da quello tecnologico. Nel corso del presente elaborato si è studiata la possibilità di riconoscere e segmentare abiti presenti in una immagine utilizzando reti neurali profonde e approcci moderni. Sono state, quindi, analizzate reti quali FasterRCNN, MaskRCNN, YOLOv5, FashionPedia e Match-RCNN. In seguito si è approfondito l’addestramento delle reti neurali profonde in scenari di alta parallelizzazione e su macchine dotate di molteplici GPU al fine di ridurre i tempi di addestramento. Inoltre si è sperimentata la possibilità di creare una rete per prevedere se un determinato abito possa avere successo in futuro analizzando semplicemente dati passati e una immagine del vestito in questione. Necessaria per tali compiti è stata, inoltre, una approfondita analisi dei dataset esistenti nel mondo della moda e dei metodi per utilizzarli per l’addestramento. Il presente elaborato è stato svolto nell’ambito del progetto FA.RE.TRA. per il quale l'Università di Bologna svolge un compito di consulenza per lo studio di fattibilità su reti neurali in grado di svolgere i compiti menzionati.
Resumo:
Al giorno d'oggi, l'industry 4.0 è un movimento sempre più prominente che induce ad equipaggiare gli impianti industriali con avanzate infrastrutture tecnologiche digitali, le quali operano sinergicamente con l'impianto, al fine di controllare ed aumentare la produttività, monitorare e prevenire i futuri guasti, ed altro ancora. In questo ambito, gli utenti sono parte integrante della struttura produttiva, in cui ricoprono ruoli strategici e flessibili, collaborano fra loro e con le macchine, con l’obiettivo di affrontare e risolvere proattivamente una vasta gamma di problemi complessi. In particolare, la customer assistance nel settore industriale può certamente variare in relazione a molteplici elementi: il tipo di produzione e le caratteristiche del prodotto; l'organizzazione ed infrastruttura aziendale interna; la quantità di risorse disponibili che possono essere impiegate; il grado di importanza ricoperto dalla customer assistance nel settore industriale di riferimento; altri eventuali fattori appartenenti ad un dominio specifico. Per queste ragioni, si è cercato di individuare e categorizzare nel modo più accurato possibile, il lavoro svolto in questo elaborato ed il contesto nel quale è stato sviluppato. In questa tesi, viene descritta un'applicazione web per erogare assistenza al cliente in ambito di industria 4.0, attraverso il paradigma di ticketing o ticket di supporto/assistenza. Questa applicazione è integrata nel sistema Mentor, il quale è attivo già da anni nel settore industriale 4.0. Il progetto Mentor è una suite di applicazioni cloud-based creata dal gruppo Bucci Industries, una multinazionale attiva nell'industria e nell'automazione con sede a Faenza. In questo caso di studio, si presenta la progettazione ed implementazione della parte front-end del suddetto sistema di assistenza, il quale è integrato ed interconnesso con un paio di applicazioni tipiche di industria 4.0, presenti nella stessa suite di applicazioni.
Resumo:
Gli sforzi di ricerca relativi all'High Performance Computing, nel corso degli anni, hanno prodotto risultati importanti inerenti all'incremento delle prestazioni sia in termini di numero di operazioni effettuate per periodo temporale, sia introducendo o migliorando algoritmi paralleli presenti in letteratura. Tali traguardi hanno comportato cambiamenti alla struttura interna delle macchine; si è assistito infatti ad un'evoluzione delle architetture dei processori utilizzati e all'impiego di GPU come risorse di calcolo aggiuntive. La conseguenza di un continuo incremento di prestazioni è quella di dover far fronte ad un grosso dispendio energetico, in quanto le macchine impiegate nell'HPC sono ideate per effettuare un'intensa attività di calcolo in un periodo di tempo molto prolungato; l'energia necessaria per alimentare ciascun nodo e dissipare il calore generato comporta costi elevati. Tra le varie soluzioni proposte per limitare il consumo di energia, quella che ha riscosso maggior interesse, sia a livello di studio che di mercato, è stata l'integrazione di CPU di tipologia RISC (Reduced Instruction Set Computer), in quanto capaci di ottenere prestazioni soddisfacenti con un impiego energetico inferiore rispetto alle CPU CISC (Complex Instruction Set Computer). In questa tesi è presentata l'analisi delle prestazioni di Monte Cimone, un cluster composto da 8 nodi di calcolo basati su architettura RISC-V e distribuiti in 4 piattaforme (\emph{blade}) dual-board. Verranno eseguiti dei benchmark che ci permetteranno di valutare: le prestazioni dello scambio di dati a lunga e corta distanza; le prestazioni nella risoluzione di problemi che presentano un principio di località spaziale ridotto; le prestazioni nella risoluzione di problemi su grafi e, nello specifico, ricerca in ampiezza e cammini minimi da sorgente singola.
Resumo:
Lo scopo della ricerca è quello di sviluppare un metodo di design che integri gli apporti delle diverse discipline di architettura, ingegneria e fabbricazione all’interno del progetto, utilizzando come caso di studio l’uso di una tettonica ad elementi planari in legno per la costruzione di superfici a guscio da utilizzare come padiglioni temporanei. La maniera in cui ci si propone di raggiungere tale scopo è tramite l’utilizzo di un agent based system che funge da mediatore tra i vari obbiettivi che si vogliono considerare, in questo caso tra parametri estetici, legati alla geometria scelta, e di fabbricazione. Si sceglie di applicare questo sistema allo studio di una struttura a guscio, che grazie alla sua naturale rigidezza integra forma e capacità strutturale, tramite una tassellazione planare della superficie stessa. Il sistema studiato si basa sull’algoritmo di circle relaxation, che viene integrato tramite dei comportamenti che tengano conto della curvatura della superficie in questione e altri comportamenti scelti appositamente per agevolare il processo di tassellazione tramite tangent plane intersection. La scelta di studiare elementi planari è finalizzata ad una maggiore facilità di fabbricazione ed assemblaggio prevedendo l’uso di macchine a controllo numerico per la fabbricazione e un assemblaggio interamente a secco e che non necessita di impalcature . Il risultato proposto è quello quindi di un padiglione costituito da elementi planari ricomponibili in legno, con particolare attenzione alla facilità e velocità di montaggio degli stessi, utile per possibili strutture temporanee e/o di emergenza.
Resumo:
Da anni è iniziata la quarta rivoluzione industriale che ha portato all’industria 4.0 e che, a differenza delle precedenti, è trainata da diverse tecnologie, tra cui l’Additive Manufacturing (AM). Lo scopo della tesi è quello di analizzare i prodotti ottenuti tramite AM e le loro proprietà meccaniche (resistenza a trazione, durezza, vita a fatica…) per paragonarli con quelli ottenuti tramite metodi convenzionali (fonderia, lavorazione alle macchine utensili…). Il primo capitolo introduttivo presenta le principali caratteristiche del processo, tra cui: i materiali utilizzati, i parametri, i vantaggi e gli svantaggi rispetto ai tradizionali metodi produttivi e l’evoluzione della tecnologia. Il secondo capitolo tratta più in particolare degli acciai, delle leghe di alluminio e di titanio, illustrando le principali tecnologie utilizzate e l’influenza dei parametri di processo e mette, poi, in relazione la microstruttura che si crea in seguito ad AM con le proprietà meccaniche ottenibili, anche in virtù di post-trattamenti. Nel terzo capitolo sono esaminati i materiali polimerici. Vengono illustrate le principali tecnologie utilizzate e le proprietà meccaniche ottenibili in relazione alla materia prima utilizzata e ai parametri di processo. Infine, sono valutati gli effetti del rinforzo in fibra sulle proprietà meccaniche. Nel capitolo finale, si traggono le conclusioni sull’utilità dell’AM per capirne l’importante ruolo all’interno della fabbricazione. Si analizza brevemente il mercato italiano relativo alle tecnologie additive e si fa un accenno a quelli che potrebbero essere gli sviluppi nei prossimi anni.
Resumo:
L’obiettivo di questa trattazione è quello di illustrare il processo di realizzazione di una nuova macchina tagliaerba. L’azienda ospitante, Grillo S.p.A., ha permesso di prendere parte attivamente alla realizzazione di un loro nuovo prodotto. Il trattorino tagliaerba in questione appartiene alla tipologia “Zero-Turn” (raggio di sterzata zero) ed è completamente elettrico. Poiché la macchina è già prodotta dalla concorrenza da circa cinque anni, l’obiettivo aziendale è quello di realizzare un articolo robusto e adatto alle esigenze di semi-professionisti, con un prezzo accattivante in modo da accaparrarsi una parte di mercato ancora scoperta. Proprio per differenziarsi, l’idea è di fornire accessori utili all’utente, ancora non presenti su macchine concorrenti. A tal fine, è stato progettato un frustino tagliabordi, installabile come optional nel macchinario, adatto a compensare la problematica insita nei tagliaerba con piatto di taglio centrale che hanno difficoltà nel consentire di contornare alberi, piante e cordoli. Il prodotto consente altresì di tagliare piccole rive o fossi, grazie all’inclinazione regolabile. Sempre nell’ottica della realizzazione di un prodotto innovativo e competitivo, si è deciso di progettare un layout diverso dagli articoli della concorrenza, caratterizzato dalla presenza di un solo motore che aziona le due lame mediante una cinghia di trasmissione.
Resumo:
L’Internet of Things (IoT) è un termine utilizzato nel mondo della telecomunicazione che fa riferimento all’estensione di Internet al mondo degli oggetti, che acquisiscono una propria identità, venendo così definiti “intelligenti”. L’uomo in questo ambito avrà sempre meno incidenza sul campo poiché sono le macchine ad interagire tra loro scambiandosi informazioni. Gli ambiti applicativi che comprendono IoT sono innumerevoli ed eterogenei; pertanto, non esiste un'unica soluzione tecnologica che possa coprire qualsiasi scenario. Una delle tecnologie che si prestano bene a svolgere lavori in IoT sono le LoRaWAN. Un punto e una sfida essenziali nell'applicazione della tecnologia LoRaWAN è garantire la massima autonomia dei dispositivi ottenendo il più basso consumo di energia possibile e la ricerca di soluzioni di alimentazione efficienti. L'obiettivo in questo elaborato è quello di realizzare un sistema capace di trasmettere un flusso continuo di informazioni senza l'ausilio e il costante monitoraggio dell'uomo. Viene trattato come controllare dei sensori da remoto e come garantire una migliore autonomia dei dispositivi ottenendo un più basso consumo energetico.
Resumo:
Negli ultimi anni la competitività nei mercati è notevolmente cresciuta, la complessità dei prodotti industriali è considerevolmente aumentata e quest’ultimi devono ora essere accuratamente ottimizzati sotto ogni aspetto. I prodotti, oltre ad avere dei cicli di vita più brevi, sono soggetti a un’alta personalizzazione e a una domanda variabile. Per rimanere competitive, le aziende manifatturiere devono possedere nuovi tipi di sistemi di produzione che siano convenienti e molto reattivi a tutti questi cambiamenti del mercato, quali i Sistemi di produzione riconfigurabili (Reconfigurable Manufacturing System - RMS). La particolarità di tali sistemi risiede nella capacità di cambiare rapidamente le loro strutture hardware e software, aspetto che li renda idonei a soddisfare la produzione moderna. Oltre agli aspetti produttivi, l’attenzione odierna è incentrata anche sulle tematiche ambientali legate al risparmio energetico durante i processi produttivi, alla riduzione delle quantità di CO2 emesse e alla sostenibilità ambientale. L’obiettivo di questa tesi è quello di proporre un modello di ottimizzazione multi-obiettivo che tenga conto sia della minimizzazione del tempo complessivo necessario alla movimentazione dei prodotti e alla riconfigurazione delle macchine, e sia della minimizzazione del consumo energetico. Tale modello è stato applicato ad un caso studio realistico che ha permesso di individuare un trade-off tecnico-ambientale individuando la frontiera di Pareto con punto di ottimo (134.6 min; 9346.3 kWh) che si discosta del 57% dal valore trovato ottimizzando la funzione tempo, e dello 0.76% dal valore ottenuto ottimizzando la funzione energia.
Resumo:
Il lavoro di tesi presentato è nato da una collaborazione con il Politecnico di Macao, i referenti sono: Prof. Rita Tse, Prof. Marcus Im e Prof. Su-Kit Tang. L'obiettivo consiste nella creazione di un modello di traduzione automatica italiano-cinese e nell'osservarne il comportamento, al fine di determinare se sia o meno possibile l'impresa. Il trattato approfondisce l'argomento noto come Neural Language Processing (NLP), rientrando dunque nell'ambito delle traduzioni automatiche. Sono servizi che, attraverso l'ausilio dell'intelligenza artificiale sono in grado di elaborare il linguaggio naturale, per poi interpretarlo e tradurlo. NLP è una branca dell'informatica che unisce: computer science, intelligenza artificiale e studio di lingue. Dal punto di vista della ricerca, le più grandi sfide in questo ambito coinvolgono: il riconoscimento vocale (speech-recognition), comprensione del testo (natural-language understanding) e infine la generazione automatica di testo (natural-language generation). Lo stato dell'arte attuale è stato definito dall'articolo "Attention is all you need" \cite{vaswani2017attention}, presentato nel 2017 a partire da una collaborazione di ricercatori della Cornell University.\\ I modelli di traduzione automatica più noti ed utilizzati al momento sono i Neural Machine Translators (NMT), ovvero modelli che attraverso le reti neurali artificiali profonde, sono in grado effettuare traduzioni o predizioni. La qualità delle traduzioni è particolarmente buona, tanto da arrivare quasi a raggiungere la qualità di una traduzione umana. Il lavoro infatti si concentrerà largamente sullo studio e utilizzo di NMT, allo scopo di proporre un modello funzionale e che sia in grado di performare al meglio nelle traduzioni da italiano a cinese e viceversa.
Resumo:
Questa tesi si propone di analizzare due macchinari della linea di “Handling” della divisione Active di IMA S.p.A., ovvero la macchina “Cyclops” e la macchina “Hercules”. Per entrambe le macchine si vuole svolgere un’analisi completa dei rischi strutturali: si vogliono individuare, infatti, i componenti strutturalmente critici al fine di proporre migliorie e soluzioni per evitare problematiche o danneggiamenti alle macchine. Per l’individuazione delle criticità strutturali, la prima cosa effettuata è stata un’analisi del funzionamento dei macchinari, attraverso uno studio dei singoli componenti e dei loro montaggi, a cui è seguita un’analisi dei carichi e delle sollecitazioni agenti su entrambe le macchine in condizioni di lavoro standard. A valle di queste analisi è stato possibile, quindi, individuare i componenti maggiormente sollecitati e, con l’ausilio di un software di nome Creo Simulate, ovvero un’estensione del software PTC Creo, molto diffuso nell’ambito della progettazione 3D di componenti industriali, sono state eseguite delle simulazioni virtuali di calcolo agli elementi finiti. Dall’analisi dei risultati delle simulazioni eseguite al calcolatore si sono evidenziate le eventuali criticità di ogni componente proponendo modifiche di progettazione, sia in termini di modifica della geometria del componente, sia riguardo a possibili modifiche nella scelta dei materiali. In aggiunta alle simulazioni virtuali, per completezza d’analisi, sono state svolte anche analisi strutturali di tipo analitico per la verifica di collegamenti bullonati e collegamenti saldati e per la verifica a fatica di alberi in rotazione.
Resumo:
Negli ultimi anni, la rete elettrica ha subito importanti cambiamenti dovuti principalmente al fatto che vi è stato un sensibile sviluppo di impianti di produzione da fonti rinnovabili. Questo aspetto ha però influenzato in modo considerevole il funzionamento della rete ed in particolare la risposta inerziale che essa ha a fronte di uno squilibrio della potenza attiva. In particolare, nella rete si è registrata una importante riduzione dell’inerzia disponibile in quanto molte delle fonti rinnovabili attualmente installate sono connesse tramite inverter, macchine statiche, che non sono in grado di fornire alcuna risposta inerziale in modo intrinseco. Si sta perciò rendendo sempre più necessario possedere degli strumenti volti a fornire una stima dell’inerzia a disposizione della rete, in modo tale da facilitare e migliorare la gestione del Sistema Elettrico. In tale contesto, in questa tesi ci si è concentrati sulla realizzazione di un modello EMTP della rete di distribuzione benchmark europea Cigrè, che permettesse di includere tutte le caratteristiche dinamiche della rete, dei generatori di produzione e in particolare, ci si è soffermati sulla modellizzazione dei carichi, eseguendo un’analisi e un confronto sulle possibili modalità di modellizzazione dei carichi in forma aggregata. Nella seconda parte, sono stati poi sviluppati degli algoritmi che permettessero dai dati raccolti attraverso le simulazioni di ricavare il valore della costante d’inerzia nei differenti scenari.
Resumo:
La crescente diffusione della Digitalizzazione all’interno di numerosi settori industriali sta trasformando le imprese, persino in aree che da sempre dipendono dalla materialità fisica. Infatti, grazie all’avviamento di una trasformazione digitale nell’operatività aziendale è possibile aumentare la propria efficienza produttiva e la propria flessibilità, producendo un effetto senza precedenti sulla competitività della catena del valore globale. Sebbene i vantaggi attuali e potenziali della produzione digitale siano notevoli, spesso le imprese manifatturiere risultano essere ritardatarie nell’adozione di strategie digitali. Più precisamente, il seguente elaborato di Tesi si è focalizzato sulla digitalizzazione degli elaborati tecnici meccanici all’interno di un’azienda leader nella progettazione e costruzione di macchine e linee personalizzate atte al confezionamento di prodotti farmaceutici e cosmetici: Marchesini Group S.p.A. In particolare, inizialmente lo studio si è concentrato sull’analisi dell’attuale utilizzo del disegno tecnico all’interno della catena produttiva di una macchina automatica e, successivamente, sull’elaborazione di una proposta di sviluppo di un applicativo che fosse in grado di eliminare efficacemente il formato cartaceo degli elaborati tecnici mediante una digitalizzazione degli stessi e dei processi gestionali che lo utilizzano. Pertanto, un primo obiettivo della presente Tesi è analizzare le diverse criticità connesse all’attuale gestione della produzione di una macchina automatica in termini di tempi, costi ed inefficienze dovute prevalentemente alla presenza del formato cartaceo dei documenti tecnici. In aggiunta, come secondo obiettivo, si vuole verificare che la proposta di sviluppo di un applicativo funzionale alla digitalizzazione dei disegni tecnici non comporterebbe dei benefici solamente in termini economici ma anche in termini di produttività, in quanto migliorerebbe le prestazioni all’interno dell’intero sistema produttivo.
Resumo:
Negli ultimi quattro anni la summarization astrattiva è stata protagonista di una evoluzione senza precedenti dettata da nuovi language model neurali, architetture transformer-based, elevati spazi dimensionali, ampi dataset e innovativi task di pre-training. In questo contesto, le strategie di decoding convertono le distribuzioni di probabilità predette da un modello in un testo artificiale, il quale viene composto in modo auto regressivo. Nonostante il loro cruciale impatto sulla qualità dei riassunti inferiti, il ruolo delle strategie di decoding è frequentemente trascurato e sottovalutato. Di fronte all'elevato numero di tecniche e iperparametri, i ricercatori necessitano di operare scelte consapevoli per ottenere risultati più affini agli obiettivi di generazione. Questa tesi propone il primo studio altamente comprensivo sull'efficacia ed efficienza delle strategie di decoding in task di short, long e multi-document abstractive summarization. Diversamente dalle pubblicazioni disponibili in letteratura, la valutazione quantitativa comprende 5 metriche automatiche, analisi temporali e carbon footprint. I risultati ottenuti dimostrano come non vi sia una strategia di decoding dominante, ma come ciascuna possieda delle caratteristiche adatte a task e dataset specifici. I contributi proposti hanno l'obiettivo di neutralizzare il gap di conoscenza attuale e stimolare lo sviluppo di nuove tecniche di decoding.