1000 resultados para Analisi Layout,simulazione,ottimizzazione,analisi dei flussi,magazzino
Resumo:
L'elaborato tratta il ruolo del porto di Ravenna nell'import/export di prodotti ortofrutticoli. Dopo una accurata analisi dei dati, lo studio delle rotte marittime e l'uso di Dbms per gestire un database complesso, si propone un modello di programmazione lineare intera su un problema di ship routing, ship scheduling e full ship-load balancing. L'obiettivo è di massimizzare il profitto derivante da un prezzo di vendita e soggetto ai vari costi della logistica. Il modello sceglie la rotta ottimale da effettuare, in termini di ordine di visita dei vari porti che hanno un import e un export dei prodotti studiati. Inoltre, è in grado di gestire lo scorrere del tempo, fornendo come soluzione il giorno ottimale di visita dei vari porti considerati. Infine, trova la ripartizione ottima del numero di container a bordo della nave per ogni tipologia di prodotto.
Resumo:
Oggetto del presente studio è un'analisi del genere testuale del contratto di compravendita immobiliare negli ordinamenti di Italia, Germania e Austria in un'ottica sincronica e pragmatica. Il testo è considerato come un atto comunicativo legato a convenzioni prestabilite e volto ad assolvere a specifiche funzioni sociali. L'obbiettivo principale del lavoro è lo sviluppo di un modello di analisi testuale che possa evidenziare l'interazione tra la funzione primaria e l'assetto macro- e microstrutturale di questo genere testuale, ovvero tra il piano giuridico e quello linguistico-testuale. L'analisi svolta permette inoltre di confrontare tre sistemi giuridici rispetto alla modalità di attuare questo negozio, nonché le lingue italiana e tedesca ed altresì due varietà di quest'ultima. Il corpus è composto da 40 atti autentici e 9 atti da formulari, compresi in un arco temporale che va dal 2000 al 2018. L'analisi parte con la definizione delle coordinate intra-ed extratestuali che determinano questo genere testuale e da una sua classificazione all'interno dei testi dell'ambito giuridico. Su questa base, i contratti dei corpora di Italia, Germania e Austria vengono analizzati separatamente rispetto alla loro macrostruttura, comprendendo in ciò tre piani macrostrutturali, ovvero quello giuridico da un lato e quelli funzionale e tematico dall'altro. L'interazione tra la funzione giuridica e l'assetto linguistico-testuale del contratto di compravendita immobiliare emerge in particolare a livello di quello funzionale, ossia relativo alla sequenza delle funzioni linguistiche realizzate sulla base dei contenuti giuridici. I risultati evinti dall'analisi dei tre corpora sono, infine, messi a confronto e integrati con una classificazione delle forme verbali che caratterizzano determinati macro-ambiti d'uso/funzionali all'interno di questo genere testuale, ovvero la realizzazione di specifiche funzioni linguistiche e giuridiche. Il metodo proposto offre nuovi spunti per ricerche future, tanto nell'ambito della linguistica contrastiva applicata a testi specialistici, che della traduzione e linguistica giuridica.
Resumo:
Sviluppo di una piattaforma software per l'estrazione e l'analisi dei dati dalle pagine Facebook ufficiali del turismo delle regioni italiane, per lo studio dell'andamento delle promozioni turistiche.
Resumo:
Il lavoro della tesi si compone di due parti principali: 1) progettazione del banco prova statico e set up dei banchi prova per la caratterizzazione a rigidezza. 2) Analisi dei risultati di spostamento e deformazione. Il fine ultimo del lavoro di tesi è stato quello di validare la moto progettata all'interno del Team UBM Motostudent di cui faccio parte, ed ottenere spunti per la riprogettazione degli elementi in fibra di carbonio. Inoltre i banchi progettati sono stati riutilizzati per testare i nuovi elementi, da telaio e telaietto riprogettati al nuovo forcellone.
Resumo:
Lo scopo del presente studio è quello di modellare il processo di trattamento delle acque reflue dell’impianto a fanghi attivi Ponte Metauro di Fano. In particolare, si è posta l’attenzione sulle fasi di trattamento secondario, agendo sui parametri che regolano tali processi e simulando il funzionamento ottimale dell’impianto attraverso il programma di modellazione STOAT. Oltre a modellare l’impianto, è stato anche fatto uno studio per cercare di risparmiare i consumi di energia e reagenti. La prima fase quindi è stata incentrata sulla modellazione dell’impianto, soprattutto per i trattamenti secondari, con varie simulazioni per poi arrivare ad avere una rappresentazione corretta del fenomeno che avviene nella realtà. La seconda fase invece è stata incentrata sulla ricerca di un possibile risparmio energetico per ottimizzare i consumi di energia e reagenti all’interno delle vasche.
Resumo:
I pazienti affetti da patologie oncologiche avanzate hanno un'esperienza di sintomi multipli spesso concomitanti tra loro. Lo scopo di questo progetto è quello di valutare come, nel contesto di un’ambulatorio integrato di Radioterapia e Cure Palliative (rep), sia possibile descrivere e quantificare i sintomi riportati dal paziente attraverso uno strumento di analisi convalidato, nello specifico l’Edmonton Symptom Assessment System (ESAS) al fine di costruire una proposta terapeutica ottimizzata per il singolo paziente. Da aprile 2016 ad aprile 2020, sono stati analizzati gli accessi al rep per un totale di 519 accessi, quindi abbiamo selezionato solo le visite dei pazienti che avevano completato totalmente lo strumento ESAS per la valutazione dei sintomi. La popolazione in studio era quindi composta da 212 pazienti, di questi 120 erano uomini, 92 erano donne, l'età media era di 72 anni, del totale il 36% era stato sottoposto a radioterapia. I principali risultati ottenuti dall'analisi dei dati relativi alla popolazione in studio sono stati i seguenti: 1) il 25% dei pazienti muore entro 2,2 mesi, il 60% entro 6 mesi; 2) la popolazione maschile ha un rischio di morte più elevato rispetto alla popolazione femminile; 3) Esiste una chiara differenza negli indici di correlazione tra la popolazione femminile e quella maschile 4) I principali sintomi correlati sono: dolore, mancanza di appetito, ansia, sonnolenza; 5) Il sintomo del dolore non è associato ad un aumento del rischio di morte, mentre la mancanza di appetito e sonnolenza sono associati ad un aumento del rischio di morte. In conclusione, i dati a nostra disposizione hanno dimostrato che un'analisi approfondita dei sintomi attraverso lo strumento ESAS è fattibile e necessaria portando informazioni fondamentali per una gestione ottimale del paziente, dandoci la possibilità di muoverci verso l'opportunità di trattamenti sempre più personalizzati e individualizzati in base alle caratteristiche dei singoli pazienti.
Resumo:
Analisi dei principali fatti politici riportati da Maurizio Crozza- dalla prima puntata di Crozza nel Paese delle Meraviglie (2012) fino all'ultima puntata della terza stagione di Fratelli di Crozza (2019)- approfondendoli attraverso i monologhi e le imitazioni del comico genovese.
Resumo:
A partire dagli anni ‘40, l'uso della traduzione automatica ha iniziato a rappresentare un soggetto fondamentale nella traduzione, costituendo ancora ad oggi il centro di numerose ricerche e studi. In seguito alla diffusione della tecnologia informatica e del World Wide Web, iniziarono a essere disponibili sistemi commerciali di traduzione automatica. In questo periodo, divennero comuni diversi software di traduzione automatica gratuiti, fino a quando, alla fine degli anni 2000, si assistette infine allo sviluppo di una nuova tecnologia di apprendimento automatico neurale, basata sul funzionamento della mente umana. Il presente lavoro si concentra sulla valutazione della qualità della traduzione automatica neurale attraverso l'analisi e il confronto di sette sistemi, ovvero Google, Systran, Prompt, Microsoft, Yandex, ModernMT e Deepl, impiegati nel settore finanziario per la coppia linguistica inglese-italiano. Il primo capitolo tratta la storia della traduzione automatica, fornendo una breve descrizione delle diverse architetture, dei loro ambiti di utilizzo e della valutazione dei sistemi. Il secondo capitolo introduce il concetto di post-editing insieme agli obiettivi e le problematiche che lo caratterizzano. Il terzo capitolo presenta il progetto Intento, seguito da una breve panoramica dei sistemi di traduzione automatica analizzati. Nel quarto capitolo viene delineato il dominio finanziario, concentrandosi sui diversi ambiti che si sono intersecati con esso nell’ambito dello studio svolto. Il quinto e ultimo capitolo riguarda l'analisi dei segmenti tradotti, preceduta dalla definizione dei parametri scelti per la valutazione. L'ultima parte del capitolo illustra una sintesi dei risultati ottenuti e alcune considerazioni finali.
Resumo:
La quantificazione del benzene ematico è un tema di grande interesse nell'ambito della tossicologia occupazionale. La determinazione dell'analita, estratto nello spazio di testa di un vial, è eseguita mediante l'utilizzo di un gascromatografo con rilevatore a ionizzazione di fiamma (GC-FID). Si è cercato di ottimizzare il processo di estrazione del benzene dal sangue allo spazio di testa ed il successivo trasferimento dell'analita nella colonna cromatografica, mediante l'applicazione di un disegno sperimentale fattoriale a tre fattori e due livelli (DoE). I fattori individuati per impostare il piano sperimentale sono stati: variazione della temperatura di incubazione (A) del vial contenente il campione di sangue, pH del campione (B), modulato mediante aggiunta di una soluzione di H2SO4 e forza ionica (C), regolata mediante una soluzione acquosa di NaCl. I livelli scelti per ciascuna variabile sono stati: per A 40 e 60 °C; per B pH naturale del campione e pH a seguito dell'aggiunta di 1 mL di H2SO4 1.8 M; per C FI naturale del campione e FI dovuta all'aggiunta di una soluzione acquosa di sodio cloruro (5 g/L). Dall'analisi dei risultati forniti dal DoE, si è osservato che A, B e C hanno effetti tra loro contrastanti, per questo motivo non sembra essere vantaggioso combinare variabili differenti. In compenso, sia l'aumento di temperatura che l'aggiunta di acido solforico portano a significativi miglioramenti nell'estrazione di benzene dal sangue. Tra i tre trattamenti risulta essere B quello più efficace, motivo per il quale si ritiene che l'aggiunta di una soluzione acquosa di H2SO4 al campione di sangue porti ad una maggiore sensibilità e risoluzione strumentale. Sicuramente la sensibilità del metodo elaborato non può essere paragonata alle tradizionali determinazioni con spettrometro di massa, ma si ritiene possa essere sufficientemente soddisfacente per valutare l'esposizione a benzene dei lavoratori a rischio e come analisi di screening rapida ed economica.
Resumo:
L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.
Resumo:
L'argomento principale discusso in questa tesi riguarda la proposta di un'attività laboratoriale circa la trattazione di problemi di ottimizzazione unidimensionale in una scuola secondaria di secondo grado. Tale argomento rientra, infatti, tra le voci all'interno dei programmi ministeriali stilati per le classi terze dei Licei Scientifici, come applicazione dello studio e dell'analisi della parabola e come preambolo per la trattazione di problemi isoperimetrici e geometrici. Si tratta, dunque, di risolvere dei problemi di massimo e minimo senza utilizzare la derivata, sfruttando solamente la parabola e l'aspetto grafico del problema. Da qui, l'importanza di soffermarsi sulla visualizzazione corretta della situazione problematica, facendo proprie le potenzialità di software didattici, come GeoGebra, che permettono agli studenti di risolvere le proprie difficoltà. Verrà quindi illustrato il percorso didattico progettato: i risultati teorici elaborati e le modalità di ragionamento; lo sviluppo storico che vi è dietro, soffermandosi sugli studi di alcuni matematici importanti; alcune applicazioni reali dell'ottimizzazione, mostrando specialmente qualche legame con la fisica. Viene riportato, anche, lo svolgimento di alcuni esercizi, confrontando sia la modalità più tradizionale che quella incentrata sulla costruzione grafica su GeoGebra. Nell'ultimo Capitolo, infine, viene fornita una analisi dei feedback e dei risultati relativa all'attività laboratoriale, che è stata presentata all'interno di una classe terza di un Liceo Scientifico: verranno esaminati i livelli di competenze raggiunti e gli eventuali vantaggi offerti da una trattazione di questo tipo.
Resumo:
L’elaborato in questione tratta la creazione, lo sviluppo e l’utilizzo di un modello di simulazione volto a simulare il funzionamento futuro di un reparto di confezionamento di vegetali surgelati, ad oggi ancora in fase di costruzione. L’obiettivo di questo modello è quello di individuare ed analizzare a priori le possibili criticità e i possibili colli di bottiglia che potrebbero verificarsi in seguito alla messa in funzione del nuovo impianto. Il modello di simulazione sarà quindi uno strumento di supporto alle decisioni che permetterà, all’azienda Orogel, di indirizzare al meglio i propri investimenti e di risparmiare tempo e costi in fase di avvio dell’impianto. Il modello, creato per mezzo del software Plant Simulation, è stato dapprima validato simulando ordini di produzione realmente realizzati dall’azienda in passato. Successivamente, a seguito di un riscontro positivo sul funzionamento del modello, si è passati al suo utilizzo. Sono state, quindi, eseguite simulazioni riferite sia al funzionamento nominale dell’impianto sia a possibili scenari alternativi come, ad esempio, un aumento delle battute della linea. È seguita una fase di analisi dei risultati nei diversi scenari. Quello che si è riscontrato è che, durante il funzionamento nominale, non vi sono particolari criticità mentre, in determinati scenari alternativi, sono stati individuati alcuni colli di bottiglia. Sono state, dunque, suggerite possibili soluzioni per fronteggiare tali problematiche.
Resumo:
Oggigiorno le aziende si trovano ad operare in mercati aventi caratteristiche comuni; le difficoltà presenti nelle catene del valore sono evidenti: risulta complicato non solo reperire la materia prima per realizzare il prodotto finito, ma anche l’energia necessaria per avviare i processi di trasformazione. Partendo da queste considerazioni, l’incremento dei costi aziendali risulta purtroppo scontato; è quindi necessario ricercare metodi per ridurli e per mantenere invariato il margine di contribuzione sul prodotto finito. Questo elaborato va ad esaminare le attività presenti all’interno del magazzino prodotti finiti di Marazzi Group, azienda leader nella produzione del grès porcellanato, cercando di proporre alcuni miglioramenti applicabili nella quotidianità. Nello specifico, tramite l’applicazione del principio di Pareto, siamo andati a suddividere gli articoli e le locazioni in classi cercando di determinare l’allocazione ottimale per ridurre al minimo le movimentazioni e i relativi sprechi. Una volta determinata la situazione attuale, abbiamo cercato di creare uno strumento che permettesse di monitorare in qualsiasi istante la gestione da parte del responsabile. Inoltre, considerando la saturazione delle varie locazioni, siamo andati a creare un file in grado di indirizzare il materiale in ingresso nella stiva più adeguata. L’introduzione di questi miglioramenti ha portato benefici sia da un punto di vista quantitativo sia qualitativo. A livello quantitativo è stato possibile osservare una riduzione dei costi collegati al personale, al carburante e alla manutenzione dei carrelli. D’altro canto, a livello qualitativo abbiamo riscontrato una riduzione nei tempi di preparazione e di spedizione, aumentando così la capacità produttiva del magazzino.
Resumo:
Il layout di un sistema di stoccaggio è un fattore caratteristico e cruciale nell’organizzazione del lavoro e dei flussi di materiale di un’azienda, se le condizioni di partenza non sono soddisfacenti è possibile passare da un layout AS-IS ad uno TO-BE che implementi alcune caratteristiche ricercate. Per intervenire sul layout AS-IS del magazzino in maniera funzionale, e poterne poi sviluppare uno in parte ex-novo, è stato necessario attraversare 3 diverse fasi che ridisegnassero il magazzino. Nella prima fase sono state applicate alcune tecniche di lean manufacturing con lo scopo di eliminare il superfluo e riorganizzare ciò che effettivamente fosse funzionale al lavoro eseguito quotidianamente. Lavorando assieme all’operatore addetto al magazzino è stato possibile raggiungere ottimi risultati sia da un punto di vista qualitativo che quantitativo. Nella seconda fase si è affrontato il problema dello storage assignment che consiste nell’assegnare la diversa merce all’interno del magazzino. Il maggior spazio ottenuto dall’applicazione delle tecniche di lean manufacturing è stato determinante per la scelta di una politica class-based storage. Utilizzando questa politica è stato possibile definire con precisione il numero e la grandezza dei reparti di cui necessitava il magazzino. Le prime due fasi ed i loro risultati operativi tra cui: maggior ordine creato, incremento dello spazio disponile e definizione dei reparti nel magazzino; sono stati fondamentali per poter applicare alcuni algoritmi euristici risolutivi che sviluppassero delle soluzioni di layout TO-BE. Non avendo flussi di materiali costanti ma basandosi soprattutto su lavoro a commessa o lavorazioni di manutenzione su prodotti già consegnati sono stati utilizzati unicamente degli algoritmi costruttivi. Nello specifico sono stati utilizzati 4 diversi algoritmi TCR, Aldep, Corelap e RDM per rendere l’intera trattazione più esaustiva.
Resumo:
La ricerca di documenti rilevanti è un task fondamentale, può avvenire tramite ambienti chiusi, come le biblioteche digitali o tramite ambienti aperti, come il World Wide Web. Quello che analizzeremo in questo progetto di tesi riguarderà le interfacce per mostrare i risultati di ricerca su una collezione di documenti. L'obiettivo, tuttavia, non è l'analisi dei motori di ricerca, ma analizzare i diversi meccanismi che permettono di visualizzare i risultati. Vedremo, inoltre, le diverse visualizzazioni rilevanti nella ricerca di informazioni sul web, in particolare parleremo di visualizzazioni nello spazio, messe a confronto con la classica visualizzazione testuale. Analizzeremo anche la classificazione in una collezione di documenti, oltre che la personalizzazione, ovvero la configurazione della visualizzazione a vantaggio dell'utente. Una volta trovati i documenti rilevanti, analizzeremo i frammenti di testo come, gli snippet, i riassunti descrittivi e gli abstract, mettendo in luce il modo in cui essi aiutato l'utente a migliorare l'accesso a determinati tipi di risultati. Infine, andremo ad analizzare le visualizzazioni di frammenti rilevanti all'interno di un testo. In particolare presenteremo le tecniche di navigazione e la ricerca di determinate parole all'interno di documenti, vale a dire le panoramiche di documenti e del metodo preferito dall'utente per cercare una parola.