664 resultados para TDP, Travelling Deliveryman Problem, Algoritmi di ottimizzazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Studio dei metodi di progettazione per lo sviluppo di eliche aeronautiche. Come caso di studio è stata scelta la progettazione di un’elica che ottimizzi le prestazioni del Risen, prodotto dalla Porto Aviation Group. Questo ultraleggero monta motore Rotax915IS, che eroga una potenza considerevolmente maggiore rispetto ai motori adottati in precedenza: sono state, quindi, progettate una serie di eliche in grado di convertire in maniera efficiente la coppia ricevuta in spinta nelle diverse fasi di volo del velivolo. E' incluso nella tesi uno studio di sensitività in cui è stato verificato come varia la spinta in funzione dei diversi parametri costruttivi dell'elica aeronautica. Lo sviluppo dell’elica avviene attraverso il seguente percorso: 1) definizione parametri di volo e funzionamento motore del velivolo a cui accoppiare l'elica, 2) studio delle prestazioni dell'aereo con le eliche già disponibili così da potere validare i calcoli, 3) stima delle prestazioni dell'aereo in seguito a variazioni delle caratteristiche geometriche della pala; 4) sintesi caratteristiche costruttive per ottenere una pala in grado di fornire prestazioni soddisfacenti in ogni fase del volo. Gli studi sono stati supportati da analisi su codici software commerciali, al fine di valutare l’influenza dei parametri costruttivi sulle prestazioni del velivolo a cui viene accoppiata l'elica. Lo studio ha condotto allo sviluppo di cinque pale, una delle quali presenta ottime prestazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il mio progetto di tesi ha come obiettivo quello di creare un modello in grado di predire il rating delle applicazioni presenti all’interno del Play Store, uno dei più grandi servizi di distribuzione digitale Android. A tale scopo ho utilizzato il linguaggio Python, che grazie alle sue librerie, alla sua semplicità e alla sua versatilità è certamen- te uno dei linguaggi più usati nel campo dell’intelligenza artificiale. Il punto di partenza del mio studio è stato il Dataset (Insieme di dati strutturati in forma relazionale) “Google Play Store Apps” reperibile su Kaggle al seguente indirizzo: https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamen- to, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applica- to quattro di↵erenti tecniche di Machine Learning per la stima del rating delle applicazioni. In particolare, sono state utilizzate:https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamento, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applicato quattro differenti tecniche di Machine Learning per la stima del rating delle applicazioni: Ridje, Regressione Lineare, Random Forest e SVR. Tali algoritmi sono stati applicati attuando due tipi diversi di trasformazioni (Label Encoding e One Hot Encoding) sulla variabile ‘Category’, con lo scopo di analizzare come le suddette trasformazioni riescano a influire sulla bontà del modello. Ho confrontato poi l’errore quadratico medio (MSE), l’errore medio as- soluto (MAE) e l’errore mediano assoluto (MdAE) con il fine di capire quale sia l’algoritmo più efficiente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Descrizione, implementazione in Python e valutazione di modelli di Machine Learning e di tutte le sue fasi di Preprocessing, EDA, Training, Test e Evaluation, per valutare la qualità del vino attraverso le sue caratteristiche fisico-chimiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi vuole riassumere il percorso di tirocinio che ho intrapreso all’ interno dell’azienda Curti. L'azienda, situata a Castel Bolognese, nasce nel 1955 e opera in svariati settori. Si occupa della produzione di macchine automatiche per il packaging, per la produzione di cavi elettrici e per il settore tessile; inoltre produce componenti per l'industria aerospaziale. L’azienda è votata ad una filosofia kaizen e fonda il processo produttivo su due forti pilastri: il WCM e la Lean Production. In questa esperienza sono stato assegnato all’ ufficio di pianificazione della produzione della divisione TetraPak. Qui ho potuto osservare da vicino come funziona un’azienda e imparare diversi compiti tipici di questo ruolo. Fra le attività che ho svolto c’è la gestione delle distinte sul gestionale Alnus e su Excel e la preparazione della documentazione per la spedizione. Successivamente ho concentrato la mia attenzione su un progetto specifico, denominato “Tethered”, interfacciandomi con il reparto ricambi. Secondo una recente normativa europea, dal 2024 tutti i packaging per il beverage con capacità inferiore ai 3 litri avranno l’obbligo di mantenere i tappi attaccati al contenitore. Il reparto ricambi riceve quindi molti ordini VCK Tethered, ovvero casse con i componenti per attuare i cambiamenti necessari per conformarsi alla normativa. Qui si concentra il mio lavoro di analisi della situazione as-is e lo studio di possibili azioni migliorative. Le azioni individuate sono l’acquisto di strumentazione, la disposizione di una scaffalatura dedicata (studiando una disposizione efficiente dei componenti), l’adozione di etichette informative sui contenitori e l'ottimizzazione delle spedizioni. Sono stati creati due OPL riguardanti il prelievo e l’imballaggio dei componenti. Infine, non è stata possibile applicarla, ma è comunque stata individuata la possibilità di implementare il metodo delle 5s, in modo da ottenere postazioni di lavoro più ordinate e pulite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background L’identificazione degli eventi temporali permette nell’analisi del movimento di valutare la qualità del gesto motorio e si offre in aiuto alla formulazione di diagnosi cliniche, valutazioni di un percorso riabilitativo e in ambito ortopedico per la creazione di protesi. L’uso sempre più diffuso dei sensori inerziali nell’analisi del movimento ha portato alla nascita di numerosi algoritmi per identificare gli eventi temporali; tuttavia, molti di questi sono stati sviluppati per la ricerca dei gate event sull’analisi del cammino, mentre non sono molti quelli dedicati allo studio dell’arto superiore, dove il reaching è il task motorio più studiato. Obiettivo tesi Proporre un metodo per l’identificazione degli eventi temporali su movimento di reaching con l’uso di soli sensori inerziali. Metodo All’interno del progetto Neurograsp, che è uno studio di analisi del movimento di reaching condotto presso il Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione Guglielmo Marconi sono stati considerati i dati relativi alla stereofotogrammetria e ai sensori inerziali. L’analisi ha riguardato tre soggetti sani destrorsi. È stato considerato il sistema di stereofotogrammetria come gold standard con cui si sono rilevati gli eventi temporali ricercati del task motorio e successivamente si è implementato un metodo per identificare gli stessi eventi temporali tramite l’uso dei soli sensori inerziali. L’analisi è terminata con il confronto dei risultati. Risultati Si sono effettuate le analisi dei risultati in termini di classificazione dei times individuati dall’algoritmo come corretti, falsi positivi o falsi negativi e sulla quantificazione dell’errore assoluto sui valori identificati correttamente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

“Viviamo in un periodo storico molto speciale, un periodo raro, un periodo in cui la confluenza di quattro campi sta fornendo ai designer strumenti che mai prima d’ora avevamo a disposizione.” Questo è ciò che Neri Oxman, designer e professoressa al MIT Media Lab, ha detto durante un Ted Talk tenutosi ormai sette anni fa. Il suo messaggio rimane così attuale e interessante, che continua ad ispirare ancora oggi tantissimi designer, scienziati e ingegneri, compreso me e questa tesi. Uno dei campi citati è il design computazionale. A seguito di una prima fase di ricerca è emerso che è già stato fatto molto in questo campo, ma c’è ancora tanto da esplorare. L’obiettivo di questa tesi è indagare l’uso di questa disciplina come booster creativo di cui il designer può avvalersi nelle diverse fasi del percorso progettuale. Per farlo, ho deciso di sperimentare tramite un esempio pratico: la progettazione di un gilet di idratazione per corridori. Inizialmente, sono stati studiati quali sono i requisiti che deve avere un progetto perché il designer possa sfruttare efficacemente il design computazionale durante tutta la progettazione. Nella fase di concept, è stato analizzato come l’approccio di questa disciplina aiuta il progettista nell’identificazione dei problemi e delle priorità progettuali. Sono poi stati usati e testati diversi strumenti del design computazionale, quali algoritmi e design generativo, per determinare alcune caratteristiche del prodotto definitivo. Il risultato di questo percorso di tesi è Aliqua, un gilet di idratazione per corridori più efficace e performante rispetto a quelli ora esistenti, progettato integrando il design intuitivo con quello computazionale. Sicuramente ci sono ancora molte cose che possono essere migliorate per rendere l’uso degli strumenti di questo campo più intuitivi e performanti, ma questa tesi dimostra che il design computazionale è fin da ora un valido alleato del designer durante tutte le fasi di progettazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’istruzione superiore in Europa è stata oggetto di un significativo processo di riforma: è aumentato l’interesse per un modello di apprendimento intorno ai progetti, centrato sullo studente, che favorisse lo sviluppo di competenze trasversali – il project-based learning (PBL). Inserire il PBL nelle Università richiede un processo di innovazione didattica: il curriculum di un corso PBL e le competenze richieste all’insegnante si differenziano dall’apprendimento tradizionale. Senza un'adeguata attenzione ai metodi di supporto per insegnanti e studenti, questi approcci innovativi non saranno ampiamente adottati. L’obiettivo di questo studio è determinare in che modo sia possibile implementare un corso PBL non presenziato da figure esperte di PBL. Le domande della ricerca sono: è possibile implementare efficacemente un approccio PBL senza il coinvolgimento di esperti dei metodi di progettazione? come si declinano i ruoli della facilitazione secondo questa configurazione: come si definisce il ruolo di tutor d’aula? come rafforzare il supporto per l’implementazione del corso? Per rispondere alle domande di ricerca è stata utilizzata la metodologia AIM-R. Viene presentata la prima iterazione dell’implementazione di un corso di questo tipo, durante la quale sono state svolte attività di ricerca e raccolta dati. L’attività di facilitazione è affidata a tre figure diverse: docente, tutor d’aula e coach professionisti. Su questa base, sono stati definiti gli elementi costituenti un kit di materiale a supporto per l’implementazione di corsi PBL. Oltre a un set di documenti e strumenti condivisi, sono stati elaborati i vademecum per guidare studenti, tutor e docenti all’implementazione di questo tipo di corsi. Ricerche future dovranno essere volte a identificare fattori aggiuntivi che rendano applicabile il kit di supporto per corsi basati su un modello diverso dal Tech to Market o che utilizzino strumenti di progettazione diversi da quelli proposti durante la prima iterazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In un mondo in continua trasformazione cresce sempre più il numero delle aziende che hanno colto l’importanza della digitalizzazione dei processi produttivi. Alcune di esse si affidano ad esperti capaci di suggerire soluzioni per ottenere servizi di alta qualità e fruibilità con l’integrazione di sistemi gestionali. Il presente lavoro di tesi ha come obiettivo l’analisi del processo produttivo di una azienda che realizza armadi per stazioni di ricarica elettrica serie terra a colonna. Si compone di sei capitoli, il primo affronta il tema della Simulazione e le sue principali caratteristiche per analizzare un processo di produzione; il secondo esamina i linguaggi, le applicazioni e i modelli di simulazione; il terzo analizza e descrive le peculiarità e le caratteristiche del software utilizzato per la simulazione; il quarto capitolo affronta il tema dell’industria 4.0 spingendo all’innovazione nei sistemi produttivi per raggiungere una produzione del tutto automatizzata e interconnessa; nel quinto viene descritto il modello digitale per ottenere in modo preciso un oggetto fisico, così da avere una Simulazione precisa, infine, il sesto esamina la Simulazione e Modellizzazione come strumento per l’ottimizzazione del processo produttivo riguardante armadi per stazioni di ricarica elettrica serie terra a colonna. Il raggiungimento dell’uso della simulazione come supporto all’analisi dinamica di un processo consente di avere una panoramica complessiva di tutte le operazioni, rappresentando, così un vantaggio per le aziende che possono valutare con oggettività soluzioni progettuali alternative, di cui è difficile prevedere il comportamento, le prestazioni e l’impatto su altri sistemi. Questi risultati sono la risposta alle necessità di disporre strumenti per l’anticipazione, il dimensionamento e il contenimento dei rischi di progetto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il fine di questo elaborato riguarda lo studio di soluzioni per il contrasto di giocatori baranti controllati da algoritmi presenti nel videogioco online Team Fortress 2. Dopo una breve introduzione alla storia degli sparatutto online, si descriverà il funzionamento di tutti i componenti che sviluppano l'ambiente di gioco, oltre a definire termini e sistemi vitali per la comprensione dell'elaborato ed una breve introduzione a Team Fortress 2. Si procederà alla discussione del cheat e dei software e/o environment sfruttati dagli attacanti in partita, andando a cercare di spiegare il meccanismo e l'origine di questi elementi, nonché introdurre il concetto dei bot baranti implementati usando il programma open source cathook. Una volta spiegata la minaccia si andrà a spiegare la difesa da parte del gioco e degli sviluppatori attraverso il software di anticheat Valve Anti-Cheat (VAC) presente sul gioco, definendo le terminologie e alcune caratteristiche comuni rispetto agli altri, per poi introdurre le nuove tecnologie di contrasto sviluppati per Counter Strike: Global Offensive, ovvero Overwatch, Trust Factor e l'anticheat con deep learning VACNET. Infine, dopo aver definito più approfonditamente il funzionamento degli algoritmi baranti, verranno suggerite delle possibili soluzioni implementabili e del motivo per cui non riescono a risolvere completamente il problema. Concluderemo spiegando cosa stanno facendo i sviluppatori, per poi descrivere come effettivamente il problema possiede come l'unica soluzione di evitare di giocare nei server ufficiali di gioco, mantenendo comunque gli algoritmi liberi nei server ufficiali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un ambiente sempre più interconnesso per facilitare la condivisione di dati, lo sviluppo di strumenti sempre più ricettivi, l’utilizzo di algoritmi sempre più mirati ed efficaci nel selezionare le giuste informazioni sono alcuni dei fattori chiave che hanno consentito e tuttora consentono la crescita, la gestione, il riutilizzo e la diffusione del patrimonio conoscitivo a disposizione delle organizzazioni. Il continuo aumento di risorse informatiche ha indotto le organizzazioni a rivedere il ruolo svolto dalla Business Intelligence, arricchendolo di strumenti e procedure nuove e creando ulteriori figure professionali. L’obiettivo di questo elaborato è fornire una panoramica della business intelligence, della sua origine e della rilevanza e utilità in ambito aziendale. Nel primo capitolo si tratta della disciplina della Business Intelligence, in particolare definizione, cenni storici e differenza con la Business Analytics. Si descrivono successivamente i sistemi informativi e i loro componenti per finire con l’architettura di una soluzione di BI. Nel secondo capitolo, si effettua una panoramica sui software di Business Intelligence sul mercato, dopo di che si presenta Microsoft Power BI di Microsoft, in particolare funzionalità e caratteristiche. Il terzo capitolo è relativo al progetto effettuato durante il periodo di tirocinio: l’implementazione di nuove funzionalità e analisi su un software BI sviluppato dall’azienda ospitante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Distribuire un’applicazione che soddisfi i requisiti del cliente e che sia in grado di accogliere rapidamente eventuali modifiche è, al giorno d’oggi, d’obbligo per aziende che si occupano di applicazioni mobile che vogliano rimanere competitive sul mercato. Il principale fattore chiave in grado di mantenere un’azienda al passo con la continua evoluzione sia del mercato che delle tecnologie mobile è la continua innovazione e ottimizzazione dell’intero processo di sviluppo. La collaborazione e la comunicazione tra diversi team, l’utilizzo di cicli iterativi di sviluppo, i rilasci frequenti e l’automazione dei test sono alcune delle pratiche incentivate dalla cultura DevOps, adottabile con successo (si vedrà in questa tesi) anche per lo sviluppo di applicazioni mobile. Innovare e ottimizzare il processo di sviluppo non significa solo automatizzare l’esecuzione dei task. Un ruolo importante è giocato anche da aspetti legati all’applicazione: l’architettura, il paradigma di programmazione, e gli strumenti utilizzati. In particolare, al fine di applicare il principio “Don’t repeat yourself ” (DRY) e semplificare la manutenzione, diversi moderni framework per lo sviluppo di applicazioni mobile, detti multipiattaforma, propongono meccanismi che consentono di condividere codice tra piattaforme differenti. L’obiettivo di questa tesi è dunque quello di discutere (capitoli 1, 2 e 3) e mostrare, applicate ad un caso di studio industriale (capitoli 4, 5 e 6), l’uso di tecniche DevOps nell’ambito di applicazioni mobile, ed in particolare mostrando come queste siano applicabili in congiunzione ai framework di sviluppo multipiattaforma (in particolare, Kotlin Multiplatform).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo sviluppo dei dispositivi mobili negli ultimi anni ha permesso la creazione di pedometri efficienti. Uno dei problemi principali nella realizzazione dei contapassi `e l’accuratezza e la precisione nei risultati. Il seguente elaborato fornisce un’analisi dettagliata dei vari studi presenti in rete a riguardo. La ricerca ha avuto scopo di riassumere le diverse scelte implementative, confrontandole tra di loro e di risaltare i punti in comune fornendo un’analisi sull’effettiva efficacia di ognuna di esse. Il focus di questo studio si concentrer`a sull’analisi di algoritmi per la rilevazione di passi calcolati non in tempo reale. L’elaborato `e stato diviso in quattro differenti fasi. Durante la prima fase vengono esposti i principali studi e le principali metodologie relative all’argomento appena descritto. Nella seconda fase viene presentata la Tassonomia, cio`e una classificazione ordinata di concetti secondo determinati criteri. Nella terza fase `e stata quindi sviluppata una applicazione Android in cui vengono implementanti gli algoritmi descritti nelle fasi precedenti. Nell’ultima fase viene testata l’applicazione attraverso l’uso di specifici test confrontando tra loro i diversi algoritmi proposti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della tesi è l’analisi delle potenzialità di produzione di una linea di processo dell’azienda Basf, trovando i colli di bottiglia e proponendo delle modifiche per migliorare il processo, sia in efficienza che in volumi prodotti. L’impianto è suddiviso in tre sezioni: sintesi, estrazione e distillazione del prodotto P1. Produrre maggiori quantità di P1 è fondamentale per mantenere lo stabilimento al passo con le richieste del mercato. Lo studio è stato caratterizzato dall’analisi delle apparecchiature della linea nelle condizioni di esercizio e da verifiche secondo le portate attuali; successivamente sono state valutate delle modifiche, intere o parziali, della sezione di distillazione. Le proposte si differenziano nell’investimento necessario, esse sono definite: "low cost”, “high cost 1”, “high cost 2”. La prima opzione equivale ad un classico revamping, in cui vengono sostituiti i riempimenti delle colonne di distillazione per migliorare l’efficienza fluidodinamica e assicurare un punto di esercizio sotto il limite dell’ingolfamento. La proposta high cost 1 suggerisce, invece, oltre ai riempimenti strutturati, la sostituzione di una colonna con un’altra di diametro maggiore nella sezione di esaurimento. La terza proposta prevede di modificare la quasi totalità della linea di processo, effettuando uno scambio delle tre colonne di distillazione, in cui la minore viene eliminata, con l’installazione di una terza di dimensioni superiori. Ogni proposta permette di ottenere delle quantità di P1 maggiori generando un beneficio economico stimato con il Valore Attuale Netto, il punto di ritorno e il Tasso Interno di Rendimento. Per ridurre la necessità di vapore e acqua di torre è stato valutato un recupero energetico che ha come ulteriore beneficio la diminuzione delle emissioni di CO2 in atmosfera. L’elaborato si conclude con la scelta della proposta più conveniente sulla base dei criteri sopra citati e della possibilità realistica di implementazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, a joint location-inventory model is proposed that simultaneously optimises strategic supply chain design decisions such as facility location and customer allocation to facilities, and tactical-operational inventory management and production scheduling decisions. All this is analysed in a context of demand uncertainty and supply uncertainty. While demand uncertainty stems from potential fluctuations in customer demands over time, supply-side uncertainty is associated with the risk of “disruption” to which facilities may be subject. The latter is caused by external factors such as natural disasters, strikes, changes of ownership and information technology security incidents. The proposed model is formulated as a non-linear mixed integer programming problem to minimise the expected total cost, which includes four basic cost items: the fixed cost of locating facilities at candidate sites, the cost of transport from facilities to customers, the cost of working inventory, and the cost of safety stock. Next, since the optimisation problem is very complex and the number of evaluable instances is very low, a "matheuristic" solution is presented. This approach has a twofold objective: on the one hand, it considers a larger number of facilities and customers within the network in order to reproduce a supply chain configuration that more closely reflects a real-world context; on the other hand, it serves to generate a starting solution and perform a series of iterations to try to improve it. Thanks to this algorithm, it was possible to obtain a solution characterised by a lower total system cost than that observed for the initial solution. The study concludes with some reflections and the description of possible future insights.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In recent years, global supply chains have increasingly suffered from reliability issues due to various external and difficult to-manage events. The following paper aims to build an integrated approach for the design of a Supply Chain under the risk of disruption and demand fluctuation. The study is divided in two parts: a mathematical optimization model, to identify the optimal design and assignments customer-facility, and a discrete-events simulation of the resulting network. The first one describes a model in which plant location decisions are influenced by variables such as distance to customers, investments needed to open plants and centralization phenomena that help contain the risk of demand variability (Risk Pooling). The entire model has been built with a proactive approach to manage the risk of disruptions assigning to each customer two types of open facilities: one that will serve it under normal conditions and a back-up facility, which comes into operation when the main facility has failed. The study is conducted on a relatively small number of instances due to the computational complexity, a matheuristic approach can be found in part A of the paper to evaluate the problem with a larger set of players. Once the network is built, a discrete events Supply Chain simulation (SCS) has been implemented to analyze the stock flow within the facilities warehouses, the actual impact of disruptions and the role of the back-up facilities which suffer a great stress on their inventory due to a large increase in demand caused by the disruptions. Therefore, simulation follows a reactive approach, in which customers are redistributed among facilities according to the interruptions that may occur in the system and to the assignments deriving from the design model. Lastly, the most important results of the study will be reported, analyzing the role of lead time in a reactive approach for the occurrence of disruptions and comparing the two models in terms of costs.