805 resultados para Analisi Layout,simulazione,ottimizzazione,analisi dei flussi,magazzino
Resumo:
Il lavoro di tesi riguarda lo studio dettagliato di un ciclone di tipo tropicale (tropical like cyclone, TLC) verificatosi nel Canale di Sicilia nel novembre 2014, realizzato attraverso un'analisi modellistica effettuata con i modelli BOLAM e MOLOCH (sviluppati presso il CNR-ISAC di Bologna) e il confronto con osservazioni. Nel primo capitolo è fornita una descrizione generale dei cicloni tropicali e dei TLC, indicando come la formazione di questi ultimi sia spesso il risultato dell'evoluzione di cicloni extratropicali baroclini nel Mediterraneo; sono identificate le aree geografiche con i periodi dell'anno maggiormente soggetti all'influenza di questi fenomeni, riportando un elenco dei principali TLC verificatisi nel Mediterraneo negli utlimi tre decenni e lo stato dell'arte sullo studio di questi eventi. Nel secondo capitolo sono descritte le modalità di implementazione delle simulazioni effettuate per il caso di studio e presentati i principali prodotti dell'analisi modellistica e osservazioni da satellite. Il terzo capitolo si apre con la descrizione della situazione sinottica e l'analisi osservativa con immagini Meteosat e rilevazioni radar che hanno permesso di ricostruire la traiettoria osservata del TLC. In seguito, viene dapprima fornito l'elenco completo delle simulazioni numeriche, quindi sono presentati alcuni dei più importanti risultati ottenuti, dai quali emerge che la previsione della traiettoria e intensità del TLC differisce notevolmente dalle osservazioni. Tenendo conto della bassa predicibilità che ha caratterizzato l'evento, nel quarto capitolo è descritto il metodo usato per ricostruire in maniera ottimale la traiettoria, utilizzando spezzoni da varie simulazioni, che ha permesso un confronto più realistico con i dati osservati e un'analisi dei processi fisici. Nel quinto capitolo sono riportati i principali risultati di alcuni test mirati a valutare l'impatto di aspetti legati all'implementazione delle simulazioni e ad altre forzanti fisiche.
Resumo:
Il presente elaborato comprende un'analisi e una proposta di traduzione di un dépliant turistico riguardante i Paesi Baschi, attraverso cui si è voluto fare conoscere questa terra ricca di una cultura eccezionale, tradizioni meravigliose e gente ospitale. Pertanto, la struttura della presente tesi è costituita dai seguenti capitoli: il primo capitolo riguarda il turismo come fenomeno storico e sociale, descrivendone le caratteristiche principali nei Paesi Baschi; nel secondo vi è una breve analisi dei testi turistici, in particolare dei dépliant turistici; il terzo capitolo comprende la mia proposta di traduzione; infine, l'ultimo è incentrato sull'analisi traduttologica.
Resumo:
L'elaborato tratta il ruolo del porto di Ravenna nell'import/export di prodotti ortofrutticoli. Dopo una accurata analisi dei dati, lo studio delle rotte marittime e l'uso di Dbms per gestire un database complesso, si propone un modello di programmazione lineare intera su un problema di ship routing, ship scheduling e full ship-load balancing. L'obiettivo è di massimizzare il profitto derivante da un prezzo di vendita e soggetto ai vari costi della logistica. Il modello sceglie la rotta ottimale da effettuare, in termini di ordine di visita dei vari porti che hanno un import e un export dei prodotti studiati. Inoltre, è in grado di gestire lo scorrere del tempo, fornendo come soluzione il giorno ottimale di visita dei vari porti considerati. Infine, trova la ripartizione ottima del numero di container a bordo della nave per ogni tipologia di prodotto.
Resumo:
Sviluppo di una piattaforma software per l'estrazione e l'analisi dei dati dalle pagine Facebook ufficiali del turismo delle regioni italiane, per lo studio dell'andamento delle promozioni turistiche.
Resumo:
Il lavoro della tesi si compone di due parti principali: 1) progettazione del banco prova statico e set up dei banchi prova per la caratterizzazione a rigidezza. 2) Analisi dei risultati di spostamento e deformazione. Il fine ultimo del lavoro di tesi è stato quello di validare la moto progettata all'interno del Team UBM Motostudent di cui faccio parte, ed ottenere spunti per la riprogettazione degli elementi in fibra di carbonio. Inoltre i banchi progettati sono stati riutilizzati per testare i nuovi elementi, da telaio e telaietto riprogettati al nuovo forcellone.
Resumo:
Lo scopo del presente studio è quello di modellare il processo di trattamento delle acque reflue dell’impianto a fanghi attivi Ponte Metauro di Fano. In particolare, si è posta l’attenzione sulle fasi di trattamento secondario, agendo sui parametri che regolano tali processi e simulando il funzionamento ottimale dell’impianto attraverso il programma di modellazione STOAT. Oltre a modellare l’impianto, è stato anche fatto uno studio per cercare di risparmiare i consumi di energia e reagenti. La prima fase quindi è stata incentrata sulla modellazione dell’impianto, soprattutto per i trattamenti secondari, con varie simulazioni per poi arrivare ad avere una rappresentazione corretta del fenomeno che avviene nella realtà. La seconda fase invece è stata incentrata sulla ricerca di un possibile risparmio energetico per ottimizzare i consumi di energia e reagenti all’interno delle vasche.
Resumo:
Analisi dei principali fatti politici riportati da Maurizio Crozza- dalla prima puntata di Crozza nel Paese delle Meraviglie (2012) fino all'ultima puntata della terza stagione di Fratelli di Crozza (2019)- approfondendoli attraverso i monologhi e le imitazioni del comico genovese.
Resumo:
A partire dagli anni ‘40, l'uso della traduzione automatica ha iniziato a rappresentare un soggetto fondamentale nella traduzione, costituendo ancora ad oggi il centro di numerose ricerche e studi. In seguito alla diffusione della tecnologia informatica e del World Wide Web, iniziarono a essere disponibili sistemi commerciali di traduzione automatica. In questo periodo, divennero comuni diversi software di traduzione automatica gratuiti, fino a quando, alla fine degli anni 2000, si assistette infine allo sviluppo di una nuova tecnologia di apprendimento automatico neurale, basata sul funzionamento della mente umana. Il presente lavoro si concentra sulla valutazione della qualità della traduzione automatica neurale attraverso l'analisi e il confronto di sette sistemi, ovvero Google, Systran, Prompt, Microsoft, Yandex, ModernMT e Deepl, impiegati nel settore finanziario per la coppia linguistica inglese-italiano. Il primo capitolo tratta la storia della traduzione automatica, fornendo una breve descrizione delle diverse architetture, dei loro ambiti di utilizzo e della valutazione dei sistemi. Il secondo capitolo introduce il concetto di post-editing insieme agli obiettivi e le problematiche che lo caratterizzano. Il terzo capitolo presenta il progetto Intento, seguito da una breve panoramica dei sistemi di traduzione automatica analizzati. Nel quarto capitolo viene delineato il dominio finanziario, concentrandosi sui diversi ambiti che si sono intersecati con esso nell’ambito dello studio svolto. Il quinto e ultimo capitolo riguarda l'analisi dei segmenti tradotti, preceduta dalla definizione dei parametri scelti per la valutazione. L'ultima parte del capitolo illustra una sintesi dei risultati ottenuti e alcune considerazioni finali.
Resumo:
La quantificazione del benzene ematico è un tema di grande interesse nell'ambito della tossicologia occupazionale. La determinazione dell'analita, estratto nello spazio di testa di un vial, è eseguita mediante l'utilizzo di un gascromatografo con rilevatore a ionizzazione di fiamma (GC-FID). Si è cercato di ottimizzare il processo di estrazione del benzene dal sangue allo spazio di testa ed il successivo trasferimento dell'analita nella colonna cromatografica, mediante l'applicazione di un disegno sperimentale fattoriale a tre fattori e due livelli (DoE). I fattori individuati per impostare il piano sperimentale sono stati: variazione della temperatura di incubazione (A) del vial contenente il campione di sangue, pH del campione (B), modulato mediante aggiunta di una soluzione di H2SO4 e forza ionica (C), regolata mediante una soluzione acquosa di NaCl. I livelli scelti per ciascuna variabile sono stati: per A 40 e 60 °C; per B pH naturale del campione e pH a seguito dell'aggiunta di 1 mL di H2SO4 1.8 M; per C FI naturale del campione e FI dovuta all'aggiunta di una soluzione acquosa di sodio cloruro (5 g/L). Dall'analisi dei risultati forniti dal DoE, si è osservato che A, B e C hanno effetti tra loro contrastanti, per questo motivo non sembra essere vantaggioso combinare variabili differenti. In compenso, sia l'aumento di temperatura che l'aggiunta di acido solforico portano a significativi miglioramenti nell'estrazione di benzene dal sangue. Tra i tre trattamenti risulta essere B quello più efficace, motivo per il quale si ritiene che l'aggiunta di una soluzione acquosa di H2SO4 al campione di sangue porti ad una maggiore sensibilità e risoluzione strumentale. Sicuramente la sensibilità del metodo elaborato non può essere paragonata alle tradizionali determinazioni con spettrometro di massa, ma si ritiene possa essere sufficientemente soddisfacente per valutare l'esposizione a benzene dei lavoratori a rischio e come analisi di screening rapida ed economica.
Resumo:
L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.
Resumo:
L'argomento principale discusso in questa tesi riguarda la proposta di un'attività laboratoriale circa la trattazione di problemi di ottimizzazione unidimensionale in una scuola secondaria di secondo grado. Tale argomento rientra, infatti, tra le voci all'interno dei programmi ministeriali stilati per le classi terze dei Licei Scientifici, come applicazione dello studio e dell'analisi della parabola e come preambolo per la trattazione di problemi isoperimetrici e geometrici. Si tratta, dunque, di risolvere dei problemi di massimo e minimo senza utilizzare la derivata, sfruttando solamente la parabola e l'aspetto grafico del problema. Da qui, l'importanza di soffermarsi sulla visualizzazione corretta della situazione problematica, facendo proprie le potenzialità di software didattici, come GeoGebra, che permettono agli studenti di risolvere le proprie difficoltà. Verrà quindi illustrato il percorso didattico progettato: i risultati teorici elaborati e le modalità di ragionamento; lo sviluppo storico che vi è dietro, soffermandosi sugli studi di alcuni matematici importanti; alcune applicazioni reali dell'ottimizzazione, mostrando specialmente qualche legame con la fisica. Viene riportato, anche, lo svolgimento di alcuni esercizi, confrontando sia la modalità più tradizionale che quella incentrata sulla costruzione grafica su GeoGebra. Nell'ultimo Capitolo, infine, viene fornita una analisi dei feedback e dei risultati relativa all'attività laboratoriale, che è stata presentata all'interno di una classe terza di un Liceo Scientifico: verranno esaminati i livelli di competenze raggiunti e gli eventuali vantaggi offerti da una trattazione di questo tipo.
Resumo:
L’elaborato in questione tratta la creazione, lo sviluppo e l’utilizzo di un modello di simulazione volto a simulare il funzionamento futuro di un reparto di confezionamento di vegetali surgelati, ad oggi ancora in fase di costruzione. L’obiettivo di questo modello è quello di individuare ed analizzare a priori le possibili criticità e i possibili colli di bottiglia che potrebbero verificarsi in seguito alla messa in funzione del nuovo impianto. Il modello di simulazione sarà quindi uno strumento di supporto alle decisioni che permetterà, all’azienda Orogel, di indirizzare al meglio i propri investimenti e di risparmiare tempo e costi in fase di avvio dell’impianto. Il modello, creato per mezzo del software Plant Simulation, è stato dapprima validato simulando ordini di produzione realmente realizzati dall’azienda in passato. Successivamente, a seguito di un riscontro positivo sul funzionamento del modello, si è passati al suo utilizzo. Sono state, quindi, eseguite simulazioni riferite sia al funzionamento nominale dell’impianto sia a possibili scenari alternativi come, ad esempio, un aumento delle battute della linea. È seguita una fase di analisi dei risultati nei diversi scenari. Quello che si è riscontrato è che, durante il funzionamento nominale, non vi sono particolari criticità mentre, in determinati scenari alternativi, sono stati individuati alcuni colli di bottiglia. Sono state, dunque, suggerite possibili soluzioni per fronteggiare tali problematiche.
Resumo:
Oggigiorno le aziende si trovano ad operare in mercati aventi caratteristiche comuni; le difficoltà presenti nelle catene del valore sono evidenti: risulta complicato non solo reperire la materia prima per realizzare il prodotto finito, ma anche l’energia necessaria per avviare i processi di trasformazione. Partendo da queste considerazioni, l’incremento dei costi aziendali risulta purtroppo scontato; è quindi necessario ricercare metodi per ridurli e per mantenere invariato il margine di contribuzione sul prodotto finito. Questo elaborato va ad esaminare le attività presenti all’interno del magazzino prodotti finiti di Marazzi Group, azienda leader nella produzione del grès porcellanato, cercando di proporre alcuni miglioramenti applicabili nella quotidianità. Nello specifico, tramite l’applicazione del principio di Pareto, siamo andati a suddividere gli articoli e le locazioni in classi cercando di determinare l’allocazione ottimale per ridurre al minimo le movimentazioni e i relativi sprechi. Una volta determinata la situazione attuale, abbiamo cercato di creare uno strumento che permettesse di monitorare in qualsiasi istante la gestione da parte del responsabile. Inoltre, considerando la saturazione delle varie locazioni, siamo andati a creare un file in grado di indirizzare il materiale in ingresso nella stiva più adeguata. L’introduzione di questi miglioramenti ha portato benefici sia da un punto di vista quantitativo sia qualitativo. A livello quantitativo è stato possibile osservare una riduzione dei costi collegati al personale, al carburante e alla manutenzione dei carrelli. D’altro canto, a livello qualitativo abbiamo riscontrato una riduzione nei tempi di preparazione e di spedizione, aumentando così la capacità produttiva del magazzino.
Resumo:
Il layout di un sistema di stoccaggio è un fattore caratteristico e cruciale nell’organizzazione del lavoro e dei flussi di materiale di un’azienda, se le condizioni di partenza non sono soddisfacenti è possibile passare da un layout AS-IS ad uno TO-BE che implementi alcune caratteristiche ricercate. Per intervenire sul layout AS-IS del magazzino in maniera funzionale, e poterne poi sviluppare uno in parte ex-novo, è stato necessario attraversare 3 diverse fasi che ridisegnassero il magazzino. Nella prima fase sono state applicate alcune tecniche di lean manufacturing con lo scopo di eliminare il superfluo e riorganizzare ciò che effettivamente fosse funzionale al lavoro eseguito quotidianamente. Lavorando assieme all’operatore addetto al magazzino è stato possibile raggiungere ottimi risultati sia da un punto di vista qualitativo che quantitativo. Nella seconda fase si è affrontato il problema dello storage assignment che consiste nell’assegnare la diversa merce all’interno del magazzino. Il maggior spazio ottenuto dall’applicazione delle tecniche di lean manufacturing è stato determinante per la scelta di una politica class-based storage. Utilizzando questa politica è stato possibile definire con precisione il numero e la grandezza dei reparti di cui necessitava il magazzino. Le prime due fasi ed i loro risultati operativi tra cui: maggior ordine creato, incremento dello spazio disponile e definizione dei reparti nel magazzino; sono stati fondamentali per poter applicare alcuni algoritmi euristici risolutivi che sviluppassero delle soluzioni di layout TO-BE. Non avendo flussi di materiali costanti ma basandosi soprattutto su lavoro a commessa o lavorazioni di manutenzione su prodotti già consegnati sono stati utilizzati unicamente degli algoritmi costruttivi. Nello specifico sono stati utilizzati 4 diversi algoritmi TCR, Aldep, Corelap e RDM per rendere l’intera trattazione più esaustiva.
Resumo:
La ricerca di documenti rilevanti è un task fondamentale, può avvenire tramite ambienti chiusi, come le biblioteche digitali o tramite ambienti aperti, come il World Wide Web. Quello che analizzeremo in questo progetto di tesi riguarderà le interfacce per mostrare i risultati di ricerca su una collezione di documenti. L'obiettivo, tuttavia, non è l'analisi dei motori di ricerca, ma analizzare i diversi meccanismi che permettono di visualizzare i risultati. Vedremo, inoltre, le diverse visualizzazioni rilevanti nella ricerca di informazioni sul web, in particolare parleremo di visualizzazioni nello spazio, messe a confronto con la classica visualizzazione testuale. Analizzeremo anche la classificazione in una collezione di documenti, oltre che la personalizzazione, ovvero la configurazione della visualizzazione a vantaggio dell'utente. Una volta trovati i documenti rilevanti, analizzeremo i frammenti di testo come, gli snippet, i riassunti descrittivi e gli abstract, mettendo in luce il modo in cui essi aiutato l'utente a migliorare l'accesso a determinati tipi di risultati. Infine, andremo ad analizzare le visualizzazioni di frammenti rilevanti all'interno di un testo. In particolare presenteremo le tecniche di navigazione e la ricerca di determinate parole all'interno di documenti, vale a dire le panoramiche di documenti e del metodo preferito dall'utente per cercare una parola.