789 resultados para Macchina automatica, analisi dinamica di meccanismi, aumento di produttività
Resumo:
A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.
Resumo:
L'obiettivo della seguente tesi è realizzare il progetto preliminare di una camera a vuoto adatta al test di propulsori elettrici in generale. Di seguito, vengono analizzati i principali vantaggi e svantaggi delle tecnologie maggiormente utilizzate nei sistemi per l'alto vuoto, i criteri per la scelta del tipo di architettura di pompaggio più adatta e per il dimensionamento delle pompe. La ricerca di alcuni test, presenti in letteratura, permette di avere parametri di riferimento in base al tipo e alla potenza dei thruster utilizzati. Tramite l'analisi strutturale di una camera sottoposta a pressione esterna è possibile ricavare dimensioni e spessore delle pareti; viene, poi, realizzato un disegno CAD della camera e verificato il dimensionamento strutturale, simulando il carico di pressione esterna, tramite un'analisi FEM-FEA utilizzando il software Solidworks. Infine, vengono elencate le caratteristiche finali della camera a vuoto e, tramite lo studio di modelli matematici che permettono di studiare e quantificare i principali fattori di perdita (outgassing, infiltrazione, throughput del thruster ecc.), si ricava la curva della pressione rispetto al tempo del sistema completo.
Resumo:
In un mondo in continua trasformazione cresce sempre più il numero delle aziende che hanno colto l’importanza della digitalizzazione dei processi produttivi. Alcune di esse si affidano ad esperti capaci di suggerire soluzioni per ottenere servizi di alta qualità e fruibilità con l’integrazione di sistemi gestionali. Il presente lavoro di tesi ha come obiettivo l’analisi del processo produttivo di una azienda che realizza armadi per stazioni di ricarica elettrica serie terra a colonna. Si compone di sei capitoli, il primo affronta il tema della Simulazione e le sue principali caratteristiche per analizzare un processo di produzione; il secondo esamina i linguaggi, le applicazioni e i modelli di simulazione; il terzo analizza e descrive le peculiarità e le caratteristiche del software utilizzato per la simulazione; il quarto capitolo affronta il tema dell’industria 4.0 spingendo all’innovazione nei sistemi produttivi per raggiungere una produzione del tutto automatizzata e interconnessa; nel quinto viene descritto il modello digitale per ottenere in modo preciso un oggetto fisico, così da avere una Simulazione precisa, infine, il sesto esamina la Simulazione e Modellizzazione come strumento per l’ottimizzazione del processo produttivo riguardante armadi per stazioni di ricarica elettrica serie terra a colonna. Il raggiungimento dell’uso della simulazione come supporto all’analisi dinamica di un processo consente di avere una panoramica complessiva di tutte le operazioni, rappresentando, così un vantaggio per le aziende che possono valutare con oggettività soluzioni progettuali alternative, di cui è difficile prevedere il comportamento, le prestazioni e l’impatto su altri sistemi. Questi risultati sono la risposta alle necessità di disporre strumenti per l’anticipazione, il dimensionamento e il contenimento dei rischi di progetto.
Resumo:
La depurazione è un processo finalizzato a ridurre in modo significativo le sostanze inquinanti presenti nelle acque reflue prima del loro rilascio in ambiente. L’uso delle alghe in impianti di depurazione di acque reflue prende il nome di ficorimedio e potrebbe rappresentare un’alternativa o una integrazione alla depurazione tradizionale dei reflui per il fatto che le alghe operano la rimozione di nutrienti e metalli pesanti dalle acque e al tempo stesso possono fornire biomassa utilizzabile come nuova fonte di energia. Lo scopo principale di questo lavoro è stato di saggiare la capacità depurativa di microalghe idonee per la depurazione dei reflui, questo è stato fatto tramite due esperimenti. Il primo esperimento è stato realizzato in modo tale da simulare un sistema continuo di crescita di Scenedesmus sp. andando a ricreare le stesse condizioni di un sistema all’aperto come negli open ponds, in particolare prelevando periodicamente una parte di biomassa e sostituendola con terreno nuovo. Sono state applicate tre diverse condizioni per analizzare quale metodo permetteva di ottenere maggiori valori di produttività di biomassa e per valutare come questa si diversifica nel tempo nella sua componente biochimica, inoltre si è valutata anche la componente fisiologica, attraverso la misura dell’efficienza fotosintetica. Nel successivo esperimento è stata utilizzata una popolazione algale naturale, proveniente dalla vasca di sedimentazione terziaria del depuratore di Ravenna, e fatta crescere nell’effluente primario. L’esperimento era volto a comprendere i processi di successione delle microalghe in un sistema aperto attraverso uno studio della composizione delle specie nel tempo e a confrontare la crescita e l’efficienza di fitodepurazione della popolazione mista con quelle di Scenedesmus sp. Nelle colture di Scenedesmus sp. in semicontinuo si è visto che il tempo di residenza idraulica minore determina una concentrazione di biomassa inferiore a quella che si ottiene nelle colture con tempi di residenza idraulica maggiori. La produttività dei polisaccaridi (g/L/day) risulta più elevata all’aumentare dei tempi di residenza idraulica, mentre per le proteine l’andamento è inverso. I valori di efficienza fotosintetica evidenziano fenomeni di fotoinibizione nella coltura con minor tempo di residenza idraulica senza che vi sia un danno dell’apparato fotosintetico. L’esperimento basato sulla crescita di una popolazione naturale in coltura batch ha mostrato che la velocità di crescita e la densità di biomassa raggiunta sono di poco inferiori a quelle della monocoltura di Scenedesmus sp. La popolazione è in grado di rimuovere i nutrienti presenti nell’effluente primario dopo 7 giorni, in un tempo maggiore rispetto a quello impiegato da Scenedesmus sp. Questo esperimento ha evidenziato che, sebbene Scenedesmus sp. fosse presente in scarsa quantità all’inizio dell’esperimento, la sua concentrazione aumenta nel tempo dimostrando così di essere maggiormente competitiva rispetto alle altre microalghe presenti nella coltura e di resistere a grazers e patogeni. I risultati ottenuti in questo studio sono importanti per la conduzione di esperimenti di ficodepurazione su scala più ampia e ha permesso di comprendere come la biomassa algale si caratterizza nel tempo andando a simulare le condizioni di crescita in un sistema continuo.
Resumo:
La presente tesi tratta il comportamento meccanico delle fasce di piano in muratura composite. Con tale termine ci si riferisce alle fasce di piano che hanno al di sotto un elemento portante in conglomerato cementizio armato, come ad esempio cordoli o solai. Assieme ai maschi murari, le fasce di piano costituiscono gli elementi portanti di una parete in muratura. Tuttavia, in caso di analisi sismica di un edificio in muratura, l’effetto fornito da tali elementi è trascurato e si considera solamente il contributo dei maschi murari. Ciò è dovuto anche alla scarsa conoscenza che ancora oggi si possiede sul loro comportamento meccanico. Per questo motivo diversi gruppi di ricerca tutt’ora sono impegnati in tale studio. In particolare, il lavoro di questa tesi, s’inserisce nel più ampio progetto di ricerca condotto dalla professoressa Katrin Beyer, direttrice del Laboratorio di Ingegneria Sismica e Dinamica Strutturale del Politecnico di Losanna (Svizzera).
Resumo:
Lo scopo di questo progetto è la progettazione dell'interfaccia utente di un Decision Support System (DSS) web based per la gestione integrata dei vigneti utilizzando lo user centered design. Questo sistema permetterà di facilitare il lavoro dei viticoltori confrontando una serie di variabili e fattori che verranno utilizzati per migliorare le loro capacita decisionali ed ottenere un livello ottimale di produttività del vino.
Resumo:
Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.
Resumo:
L'utilizzo dell'idrogeno come vettore energetico è uno dei temi, riguardanti la sostenibilità energetica, di maggior rilievo degli ultimi anni. Tuttavia ad oggi è ancora in corso la ricerca di un sistema che ne permetta un immagazzinamento efficiente. Il MgH2 costituisce un valido candidato per la produzione di sistemi per lo stoccaggio di idrogeno allo stato solido. In questa tesi, per migliorare le proprietà cinetiche e termodinamiche di cui questo sistema, sono stati sintetizzati dei campioni nanostrutturati composti da Mg-Ti attraverso la tecnica Inert Gas Condensation. I campioni così ottenuti sono stati analizzati dal punto di vista morfologico e composizionale, mediante la microscopia elettronica a scansione, la microanalisi e la diffrazione di raggi X. Tali analisi hanno mostrato che le dimensioni delle nanoparticelle sono comprese tra i 10-30 nm e che la tecnica IGC permette una distribuzione uniforme del titanio all'interno della matrice Mg. Le misure di caratterizzazione per l'assorbimento reversibile di idrogeno sono state effettuate attraverso il metodo volumetrico, Sievert. I campioni sono stati analizzati a varie temperature (473K-573K). Cineticamente la presenza di titanio ha provocato un aumento della velocità delle cinetiche sia per i processi di desorbimento che per quelli di assorbimento ed ha contribuito ad una diminuzione consistente delle energie di attivazione di entrambi i processi rispetto a quelle note in letteratura per il composto MgH2. Dal punto di vista termodinamico, sia le pressioni di equilibrio ottenute dalle analisi PCT a diverse temperature, che l'entalpia e l'entropia di formazione risultano essere in accordo con i valori conosciuti per il sistema MgH2. All'interno di questo lavoro di tesi è inoltre presentata un'analisi preliminare di un campione analizzato con la tecnica Synchrotron Radiation-Powder X Ray Diffraction in situ, presso la facility MAX-lab (Svezia), all’interno dell’azione COST, MP1103 per la ricerca di sistemi per lo stoccaggio di idrogeno allo stato solido.
Resumo:
Realizzazione di un supporto CoAP per il framework Kura con le seguenti caratteristiche: 1. Ottima scalabilità, ad organizzazione gerarchica, con aggiunta e rimozione dinamica di nodi e gestione automatica delle disconnessioni. 2. Integrazione efficiente di tecnologie CoAP ed MQTT progettate appositamente per l’IoT tramite lo sviluppo di un pattern di comunicazione per la gestione degli scambi delle informazioni. 3. Un limitato uso di risorse con modifiche su entrambe le implementazioni standard dei protocolli usati in modo tale da adattarle agli obiettivi prefissati. Il tutto a un costo bassissimo, dato che si basa su tecnologie open e grazie alla possibilità di utilizzo su Raspberry Pi.
Resumo:
In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.
Resumo:
L’interruzione dell’attività di formazione stellare nelle galassie attraverso l’azione di venti guidati dalla potenza dell’AGN e/o dall’attività di starburst è una fase prevista da tutti i modelli di coevoluzione tra i buchi neri super massicci e la galassia ospite. La recente scoperta di venti molecolari massivi in alcune ULIRG locali ha fornito una prova forte a favore dell’esistenza del meccanismo di feedback negativo nelle galassie. Ad oggi non è chiaro il ruolo che l'attività di AGN e di starburst hanno nella produzione dei venti: tuttavia, la maggior parte delle ULIRG in cui sono stati osservati i venti molecolari presentano elevati tassi e velocità di outflow, suggerendo che l'AGN giochi un ruolo principale. IRAS 13120-5453 rappresenta un caso particolare: la sua attività e dominata dalla formazione stellare, ma sembra anche ospitare un AGN oscurato al suo interno. Tuttavia, non presenta elevati tassi di outflow e velocità dei venti: non è quindi chiaro quale dei due fenomeni vi sia all'origine. In questo lavoro di tesi si è operata un'analisi multibanda di questa sorgente con lo scopo di studiarne le principali proprietà fisiche. Lo studio in banda X attraverso l'analisi dei dati provenienti dai satelliti XMM-Newton, Chandra e NuSTAR ha permesso di conoscere parametri importanti come il grado di oscuramento della sorgente e la potenza dell'AGN. Con l'analisi in banda IR, è stato possibile conoscere il contributo dell'AGN e della starburst alla luminosità IR e i principali parametri fisici di questa galassia. L’obiettivo di tale lavoro è quello di capire il ruolo svolto da questi due principali fenomeni e quale possa essere la connessione con i venti molecolari.
Resumo:
In un mondo che richiede sempre maggiormente un'automazione delle attività della catena produttiva industriale, la computer vision rappresenta uno strumento fondamentale perciò che viene già riconosciuta internazionalmente come la Quarta Rivoluzione Industriale o Industry 4.0. Avvalendomi di questo strumento ho intrapreso presso l'azienda Syngenta lo studio della problematica della conta automatica del numero di foglie di una pianta. Il problema è stato affrontato utilizzando due differenti approcci, ispirandosi alla letteratura. All'interno dell'elaborato è presente anche la descrizione progettuale di un ulteriore metodo, ad oggi non presente in letteratura. Le metodologie saranno spiegate in dettaglio ed i risultati ottenuti saranno confrontati utilizzando i primi due approcci. Nel capitolo finale si trarranno le conclusioni sulle basi dei risultati ottenuti e dall'analisi degli stessi.
Resumo:
L'elaborato si impegna ad esporre i risultati derivanti da una revisione estensiva della letteratura riguardante le pratiche di misurazione della sostenibilità in azienda. Si è scelto un approccio al problema di impostazione bibliometrico, consistente in analisi statistiche di dati bibliografici ricavabili osservando le relazioni tra documenti. Si sono utilizzati strumenti di clustering per categorizzare la letteratura ed individuare le aree di maggior interesse potenziali per aziende che desiderino investire con successo nella sostenibilità. Come risultato, si è ottenuta una chiara identificazione delle principali tematiche che devono essere tenute in considerazione nell’affrontare valutazioni relative alla misurazione e valorizzazione dei concetti di sostenibilità e impatto ambientale in ambito aziendale. Il presente lavoro si presenta inoltre come guida metodologica per un approccio quantitativo alla revisione della letteratura, adattabile ed applicabile in maniera iterativa per un continuo monitoraggio del tema o per indagini in altri ambiti. Questa tesi si pone dunque come base per ricerche e analisi successive finalizzate alla comprensione della letteratura.
Resumo:
Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.
Resumo:
La tesi si propone l'obiettivo di esaminare le caratteristiche della lingua dell'aviazione, il cosiddetto Aviation English (AE), rivolgendo un'attenzione particolare alle dinamiche delle interazioni verbali che avvengono tra piloti e controllori del traffico aereo. A partire da un breve excursus sui diversi tipi di linguaggi, da quelli specialistici alle lingue controllate, si cercherà di fornire una chiara definizione dell'AE, delineando gli aspetti che lo rendono una vera e propria lingua e non una semplice varietà di inglese. La tesi passerà in rassegna tutte le convenzioni e le regole che compongono questa lingua e che rendono la comunicazione in volo efficace a livello internazionale. Si vedrà anche come la comunicazione in aviazione sia suscettibile a molti fattori linguistici (e non), il che comporta per gli operatori del settore, l'obbligo di conoscerla a fondo, più della loro stessa lingua madre. In conclusione, si eseguirà un'analisi conversazionale di una comunicazione terra-bordo-terra realmente avvenuta in un'emergenza. Più precisamente, si tratta dell'estratto del volo US Airways 1549, diventato famoso come "il miracolo dell'Hudson". Questo permetterà di mettere in risalto le regole dell'AE, applicate in un caso concreto, quanto singolare, e notare come queste siano efficaci nel gestire, a livello comunicativo e operativo, gli imprevisti.